सब्सक्राइब करें

Sycophantic AI: क्या आपका AI चैटबॉट जी-हुजूरी कर रहा है? सावधान, हर बात पर हां मिलाने से गलत हो सकते हैं फैसल

टेक डेस्क, अमर उजाला, नई दिल्ली Published by: Jagriti Updated Sat, 28 Mar 2026 12:59 PM IST
सार

Sycophantic AI Study Science Journal: हम अक्सर ऐसे लोगों को पसंद करते हैं जो हमारी तारीफ करे या हमारे विचारों का समर्थन करें। ठीक ऐसी ही उम्मीद हम एआई यानी की आर्टिफिसियल इंटेलिजेंस के से करते हैं, लेकिन क्या आपको पता है विज्ञान इसे Sycophantic AI (चापलूस एआई) कह रहा है। एक नई स्टडी के अनुसार, जो एआई सिस्टम यूजर्स से जरूरत से ज्यादा सहमत होते हैं, वे न केवल उनकी गलतियों को बढ़ावा देते हैं, बल्कि उनके स्वभाव में सुधार की गुंजाइश को भी खत्म कर देते हैं।
 

विज्ञापन
Sycophantic AI:  Your Chatbot Yes-Man? Why Constant Agreement Leads Poor Decisions
एआई - फोटो : amarujala.com
What is sycophancy: स्टडी में sycophancy का मतलब ऐसे AI सिस्टम्स से है जो यूजर की हर बात से सहमत हो जाते हैं। गलत होने पर भी समर्थन करते हैं और जरूरत पड़ने पर आलोचनात्मक प्रतिक्रिया नहीं देते। यह व्यवहार ऊपर से मददगार लगता है, लेकिन लंबे समय में हानिकारक साबित हो सकता है।


स्टडी में क्या पाया गया?
स्टैनफोर्ड और कार्नेगी मेलन यूनिवर्सिटी के शोधकर्ताओं ने पाया गया कि 11 प्रमुख एआई मॉडल्स इंसानों की तुलना में 49 प्रतिशत ज्यादा बार यूजर्स के गलत कामों को भी सही ठहराते हैं। फिर इसी चापलूसी की वजह से लोग अपनी गलतियों के लिए माफी मांगने या जिम्मेदारी लेने से बचने लगते हैं। हालांकि यूजर्स को ऐसे हां में हां मिलाने वाले एआई ज्यादा पसंद आते हैं, लेकिन यह लंबे समय में उनके मानसिक विकास और सामाजिक संबंधों के लिए खतरनाक है।
Trending Videos
Sycophantic AI:  Your Chatbot Yes-Man? Why Constant Agreement Leads Poor Decisions
प्रतीकात्मक तस्वीर - फोटो : science.org
साइंस जर्नल में प्रकाशित शोध के अनुसार, चैटजीपीटी और जेमिनी जैसे आधुनिक एआई मॉडल्स को यूजर-फ्रेंडली बनाने के चक्कर में इतना सहमतिपूर्ण बना दिया गया है कि वे अनैतिक और गलत कार्यों पर भी यूजर को सही ठहराने लगते हैं।
विज्ञापन
विज्ञापन
Sycophantic AI:  Your Chatbot Yes-Man? Why Constant Agreement Leads Poor Decisions
कैंसर की पहचान में एआई उपकरणों के लिए लाइसेंस जरूरी - फोटो : अमर उजाला
गलत फैसलों पर भी वैलिडेशन
स्टडी में यह भी सामने आया कि जब यूजर्स ने झूठ बोलने या दूसरों को नुकसान पहुंचाने जैसी अनैतिक बातें कीं, तब भी एआई ने उन्हें सपोर्ट किया। रेडिट-स्टाइल की नैतिक दुविधाओं में जहां इंसान असहमत थे, वहां एआई ने 51 प्रतिशत मामलों में यूजर का पक्ष लिया। यह व्यवहार व्यक्ति के हानिकारक विश्वासों को और मजबूत करने में मदद करता है।
Sycophantic AI:  Your Chatbot Yes-Man? Why Constant Agreement Leads Poor Decisions
एआई - फोटो : freepik
जवाबदेही और सहानुभूति में कमी
इसके बाद करीब दो हजार 405 लोगों पर किए गए प्रयोगों से पता चला कि Sycophantic AI से बात करने के बाद लोग खुद को ज्यादा सही मानने लगे। वे अपने निजी रिश्तों में सुधार करने या माफी मांगने के प्रति कम इच्छुक पाए गए। शोधकर्ताओं के अनुसार, एआई की अत्यधिक सहमति यूजर्स को खुद पर केंद्रित यानी सेल्फ सेट्रंड बना देती है और दूसरों के प्रति सहानुभूति कम कर देती है।
विज्ञापन
Sycophantic AI:  Your Chatbot Yes-Man? Why Constant Agreement Leads Poor Decisions
एआई - फोटो : amarujala.com
'हां में हां' मिलाने वाले एआई ज्यादा पसंद
सबसे बड़ी समस्या यह है कि लोग ऐसे एआई को ज्यादा पसंद करते हैं जो उनकी हां में हां मिलाए। वे इन जवाबों को ज्यादा भरोसेमंद और संतुष्टिदायक बताते हैं। यही वजह है कि कंपनियां अपने एआई को और अधिक सहमतिपूर्ण बनाने के लिए प्रोत्साहित होती हैं, भले ही यह यूजर के लिए मानसिक रूप से नुकसानदेह हो।
अगली फोटो गैलरी देखें
विज्ञापन

रहें हर खबर से अपडेट, डाउनलोड करें Android Hindi News App, iOS Hindi News App और Amarujala Hindi News App अपने मोबाइल पे|
Get all Tech News in Hindi related to live news update of latest mobile reviews apps, tablets etc. Stay updated with us for all breaking news from Tech and more Hindi News.

विज्ञापन
विज्ञापन

एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें

Next Article

एप में पढ़ें

Followed