{"_id":"69034ebac63e6562a50f9891","slug":"stanford-research-reveals-flattering-of-ai-impacts-human-behavior-social-psychophancy-2025-10-30","type":"photo-gallery","status":"publish","title_hn":"AI बना चापलूस: अब सच नहीं, यूजर्स को खुश करने वाले जवाब दे रहे एआई चैटबॉट; रिसर्च में हुआ खुलासा","category":{"title":"Tech Diary","title_hn":"टेक डायरी","slug":"tech-diary"}}
AI बना चापलूस: अब सच नहीं, यूजर्स को खुश करने वाले जवाब दे रहे एआई चैटबॉट; रिसर्च में हुआ खुलासा
टेक डेस्क, अमर उजाला, नई दिल्ली
Published by: नीतीश कुमार
Updated Thu, 30 Oct 2025 05:20 PM IST
सार
Social Psychophancy of AI: स्टैनफोर्ड और कार्नेगी मैलन यूनिवर्सिटी की रिसर्च में चौंकाने वाला खुलासा हुआ है। आर्टिफिशियल इंटेलिजेंस (AI) अब यूजर्स की चापलूसी करने लगा है। AI सही जवाब देने की बजाय वे बातें कहता है जो यूजर सुनना चाहता है, जिससे लोगों की सोच पर नकारात्मक असर पड़ रहा है।
अब तक लोग मानते थे कि यदि किसी मुद्दे पर सटीक और निष्पक्ष जवाब चाहिए तो ऐसा सिर्फ आर्टिफिशियल इंटेलिजेंस (AI) ही कर सकता है। लेकिन एक नई रिसर्च ने इस धारणा को गलत साबित कर दिया है। स्टैनफोर्ड यूनिवर्सिटी और कार्नेगी मैलन यूनिवर्सिटी की संयुक्त स्टडी में पता चला है कि AI इंसानों की तरह चापलूसी करने लगा है और अब वही जवाब देता है जो इंसानों को पसंद है।
Trending Videos
2 of 5
सांकेतिक तस्वीर
- फोटो : Adobe Stock
यूजर्स का मन जीतने की कोशिश
रिसर्च में यह व्यवहार ‘सोशल साइकोफैंसी’ (Social Psychophancy) कहा गया है, यानी जब AI यूजर की गलती बताने के बजाय उसके हर विचार या एक्शन को सही ठहराने लगता है। इसका मतलब है कि AI अब सच बोलने के बजाय वह बातें कहने पर ज्यादा ध्यान दे रहा है जो इंसानों को पसंद आए।
विज्ञापन
विज्ञापन
3 of 5
सांकेतिक तस्वीर (AI photo)
- फोटो : freepik
कई एआई मॉडल्स पर की गई स्टडी
अध्ययन में 11 बड़े लैंग्वेज मॉडल्स (LLMs) जैसे OpenAI, Anthropic, Google, Meta और Mistral को शामिल किया गया। इन सभी में पाया गया कि वे असमंजस या विवादित सवालों पर भी वही जवाब देते हैं जो यूजर को पसंद आए, बजाय इसके कि वे वास्तविक और निष्पक्ष उत्तर दें।
4 of 5
एआई चैटबॉट
- फोटो : AI
इंसानी व्यवहार में असर डाल रहा एआई
रिसर्चर्स ने पाया कि इस प्रवृत्ति का असर इंसानों के व्यवहार पर भी पड़ता है। कई यूजर्स जब अपने नैतिक या निजी निर्णयों को लेकर AI से सलाह लेते हैं, तो AI उन्हें सही ठहराता है। इसका नतीजा यह होता है कि लोग अपनी गलतियों को स्वीकार नहीं करते और खुद को हमेशा सही मानने लगते हैं। इस अध्ययन के लिए Reddit जैसे प्लेटफॉर्म्स पर यूजर्स के सवाल-जवाब भी देखे गए। दिलचस्प बात यह रही कि जहां ऑनलाइन कम्युनिटी ने किसी यूजर को गलत ठहराया, वहीं AI ने उसी यूजर का बचाव किया।
विज्ञापन
5 of 5
एआई के भरोसेमंद होने पर सवाल
- फोटो : अमर उजाला
एआई के भरोसेमंद होने पर सवाल
दो अलग-अलग प्रयोगों में 1604 प्रतिभागियों पर यह परखा गया कि चापलूसी भरे जवाब कैसे उनके आत्मविश्वास और निर्णयों को प्रभावित करते हैं। जिन लोगों की बातों पर एआई ने हां में हां मिलाई, उन्होंने अपनी गलती मानने से इनकार किया और AI पर अधिक भरोसा जताया। विशेषज्ञों का कहना है कि यह प्रवृत्ति खतरनाक हो सकती है, क्योंकि इससे यूजर्स और डेवलपर्स दोनों के लिए एक सुविधाजनक झूठ का चक्र बनता जा रहा है, जो कि AI के भरोसेमंद होने पर सवाल खड़ा करता है।
एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें
Next Article
Disclaimer
हम डाटा संग्रह टूल्स, जैसे की कुकीज के माध्यम से आपकी जानकारी एकत्र करते हैं ताकि आपको बेहतर और व्यक्तिगत अनुभव प्रदान कर सकें और लक्षित विज्ञापन पेश कर सकें। अगर आप साइन-अप करते हैं, तो हम आपका ईमेल पता, फोन नंबर और अन्य विवरण पूरी तरह सुरक्षित तरीके से स्टोर करते हैं। आप कुकीज नीति पृष्ठ से अपनी कुकीज हटा सकते है और रजिस्टर्ड यूजर अपने प्रोफाइल पेज से अपना व्यक्तिगत डाटा हटा या एक्सपोर्ट कर सकते हैं। हमारी Cookies Policy, Privacy Policy और Terms & Conditions के बारे में पढ़ें और अपनी सहमति देने के लिए Agree पर क्लिक करें।