सब्सक्राइब करें

AI बना चापलूस: अब सच नहीं, यूजर्स को खुश करने वाले जवाब दे रहे एआई चैटबॉट; रिसर्च में हुआ खुलासा

टेक डेस्क, अमर उजाला, नई दिल्ली Published by: नीतीश कुमार Updated Thu, 30 Oct 2025 05:20 PM IST
सार

Social Psychophancy of AI: स्टैनफोर्ड और कार्नेगी मैलन यूनिवर्सिटी की रिसर्च में चौंकाने वाला खुलासा हुआ है। आर्टिफिशियल इंटेलिजेंस (AI) अब यूजर्स की चापलूसी करने लगा है। AI सही जवाब देने की बजाय वे बातें कहता है जो यूजर सुनना चाहता है, जिससे लोगों की सोच पर नकारात्मक असर पड़ रहा है।

विज्ञापन
Stanford research reveals flattering of ai impacts human behavior social psychophancy
इंसानों की चापलूसी कर रहा एआई - फोटो : AI
अब तक लोग मानते थे कि यदि किसी मुद्दे पर सटीक और निष्पक्ष जवाब चाहिए तो ऐसा सिर्फ आर्टिफिशियल इंटेलिजेंस (AI) ही कर सकता है। लेकिन एक नई रिसर्च ने इस धारणा को गलत साबित कर दिया है। स्टैनफोर्ड यूनिवर्सिटी और कार्नेगी मैलन यूनिवर्सिटी की संयुक्त स्टडी में पता चला है कि AI इंसानों की तरह चापलूसी करने लगा है और अब वही जवाब देता है जो इंसानों को पसंद है।
Trending Videos
Stanford research reveals flattering of ai impacts human behavior social psychophancy
सांकेतिक तस्वीर - फोटो : Adobe Stock
यूजर्स का मन जीतने की कोशिश
रिसर्च में यह व्यवहार ‘सोशल साइकोफैंसी’ (Social Psychophancy) कहा गया है, यानी जब AI यूजर की गलती बताने के बजाय उसके हर विचार या एक्शन को सही ठहराने लगता है। इसका मतलब है कि AI अब सच बोलने के बजाय वह बातें कहने पर ज्यादा ध्यान दे रहा है जो इंसानों को पसंद आए।
विज्ञापन
विज्ञापन
Stanford research reveals flattering of ai impacts human behavior social psychophancy
सांकेतिक तस्वीर (AI photo) - फोटो : freepik
कई एआई मॉडल्स पर की गई स्टडी
अध्ययन में 11 बड़े लैंग्वेज मॉडल्स (LLMs) जैसे OpenAI, Anthropic, Google, Meta और Mistral को शामिल किया गया। इन सभी में पाया गया कि वे असमंजस या विवादित सवालों पर भी वही जवाब देते हैं जो यूजर को पसंद आए, बजाय इसके कि वे वास्तविक और निष्पक्ष उत्तर दें।
Stanford research reveals flattering of ai impacts human behavior social psychophancy
एआई चैटबॉट - फोटो : AI
इंसानी व्यवहार में असर डाल रहा एआई 
रिसर्चर्स ने पाया कि इस प्रवृत्ति का असर इंसानों के व्यवहार पर भी पड़ता है। कई यूजर्स जब अपने नैतिक या निजी निर्णयों को लेकर AI से सलाह लेते हैं, तो AI उन्हें सही ठहराता है। इसका नतीजा यह होता है कि लोग अपनी गलतियों को स्वीकार नहीं करते और खुद को हमेशा सही मानने लगते हैं। इस अध्ययन के लिए Reddit जैसे प्लेटफॉर्म्स पर यूजर्स के सवाल-जवाब भी देखे गए। दिलचस्प बात यह रही कि जहां ऑनलाइन कम्युनिटी ने किसी यूजर को गलत ठहराया, वहीं AI ने उसी यूजर का बचाव किया।
विज्ञापन
Stanford research reveals flattering of ai impacts human behavior social psychophancy
एआई के भरोसेमंद होने पर सवाल - फोटो : अमर उजाला
एआई के भरोसेमंद होने पर सवाल
दो अलग-अलग प्रयोगों में 1604 प्रतिभागियों पर यह परखा गया कि चापलूसी भरे जवाब कैसे उनके आत्मविश्वास और निर्णयों को प्रभावित करते हैं। जिन लोगों की बातों पर एआई ने हां में हां मिलाई, उन्होंने अपनी गलती मानने से इनकार किया और AI पर अधिक भरोसा जताया। विशेषज्ञों का कहना है कि यह प्रवृत्ति खतरनाक हो सकती है, क्योंकि इससे यूजर्स और डेवलपर्स दोनों के लिए एक सुविधाजनक झूठ का चक्र बनता जा रहा है, जो कि AI के भरोसेमंद होने पर सवाल खड़ा करता है।
अगली फोटो गैलरी देखें
विज्ञापन

रहें हर खबर से अपडेट, डाउनलोड करें Android Hindi News App, iOS Hindi News App और Amarujala Hindi News App अपने मोबाइल पे|
Get all Tech News in Hindi related to live news update of latest mobile reviews apps, tablets etc. Stay updated with us for all breaking news from Tech and more Hindi News.

विज्ञापन
विज्ञापन

एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें

Next Article

एप में पढ़ें

Followed