{"_id":"69c780a9e0ce8ce9050c8eb1","slug":"sycophantic-ai-your-chatbot-yes-man-why-constant-agreement-leads-poor-decisions-2026-03-28","type":"photo-gallery","status":"publish","title_hn":"Sycophantic AI: क्या आपका AI चैटबॉट जी-हुजूरी कर रहा है? सावधान, हर बात पर हां मिलाने से गलत हो सकते हैं फैसल","category":{"title":"Tech Diary","title_hn":"टेक डायरी","slug":"tech-diary"}}
Sycophantic AI: क्या आपका AI चैटबॉट जी-हुजूरी कर रहा है? सावधान, हर बात पर हां मिलाने से गलत हो सकते हैं फैसल
टेक डेस्क, अमर उजाला, नई दिल्ली
Published by: Jagriti
Updated Sat, 28 Mar 2026 12:59 PM IST
सार
Sycophantic AI Study Science Journal: हम अक्सर ऐसे लोगों को पसंद करते हैं जो हमारी तारीफ करे या हमारे विचारों का समर्थन करें। ठीक ऐसी ही उम्मीद हम एआई यानी की आर्टिफिसियल इंटेलिजेंस के से करते हैं, लेकिन क्या आपको पता है विज्ञान इसे Sycophantic AI (चापलूस एआई) कह रहा है। एक नई स्टडी के अनुसार, जो एआई सिस्टम यूजर्स से जरूरत से ज्यादा सहमत होते हैं, वे न केवल उनकी गलतियों को बढ़ावा देते हैं, बल्कि उनके स्वभाव में सुधार की गुंजाइश को भी खत्म कर देते हैं।
विज्ञापन
1 of 7
एआई
- फोटो : amarujala.com
Link Copied
What is sycophancy: स्टडी में sycophancy का मतलब ऐसे AI सिस्टम्स से है जो यूजर की हर बात से सहमत हो जाते हैं। गलत होने पर भी समर्थन करते हैं और जरूरत पड़ने पर आलोचनात्मक प्रतिक्रिया नहीं देते। यह व्यवहार ऊपर से मददगार लगता है, लेकिन लंबे समय में हानिकारक साबित हो सकता है।
स्टडी में क्या पाया गया?
स्टैनफोर्ड और कार्नेगी मेलन यूनिवर्सिटी के शोधकर्ताओं ने पाया गया कि 11 प्रमुख एआई मॉडल्स इंसानों की तुलना में 49 प्रतिशत ज्यादा बार यूजर्स के गलत कामों को भी सही ठहराते हैं। फिर इसी चापलूसी की वजह से लोग अपनी गलतियों के लिए माफी मांगने या जिम्मेदारी लेने से बचने लगते हैं। हालांकि यूजर्स को ऐसे हां में हां मिलाने वाले एआई ज्यादा पसंद आते हैं, लेकिन यह लंबे समय में उनके मानसिक विकास और सामाजिक संबंधों के लिए खतरनाक है।
Trending Videos
2 of 7
प्रतीकात्मक तस्वीर
- फोटो : science.org
साइंस जर्नल में प्रकाशित शोध के अनुसार, चैटजीपीटी और जेमिनी जैसे आधुनिक एआई मॉडल्स को यूजर-फ्रेंडली बनाने के चक्कर में इतना सहमतिपूर्ण बना दिया गया है कि वे अनैतिक और गलत कार्यों पर भी यूजर को सही ठहराने लगते हैं।
विज्ञापन
विज्ञापन
3 of 7
कैंसर की पहचान में एआई उपकरणों के लिए लाइसेंस जरूरी
- फोटो : अमर उजाला
गलत फैसलों पर भी वैलिडेशन
स्टडी में यह भी सामने आया कि जब यूजर्स ने झूठ बोलने या दूसरों को नुकसान पहुंचाने जैसी अनैतिक बातें कीं, तब भी एआई ने उन्हें सपोर्ट किया। रेडिट-स्टाइल की नैतिक दुविधाओं में जहां इंसान असहमत थे, वहां एआई ने 51 प्रतिशत मामलों में यूजर का पक्ष लिया। यह व्यवहार व्यक्ति के हानिकारक विश्वासों को और मजबूत करने में मदद करता है।
4 of 7
एआई
- फोटो : freepik
जवाबदेही और सहानुभूति में कमी
इसके बाद करीब दो हजार 405 लोगों पर किए गए प्रयोगों से पता चला कि Sycophantic AI से बात करने के बाद लोग खुद को ज्यादा सही मानने लगे। वे अपने निजी रिश्तों में सुधार करने या माफी मांगने के प्रति कम इच्छुक पाए गए। शोधकर्ताओं के अनुसार, एआई की अत्यधिक सहमति यूजर्स को खुद पर केंद्रित यानी सेल्फ सेट्रंड बना देती है और दूसरों के प्रति सहानुभूति कम कर देती है।
विज्ञापन
5 of 7
एआई
- फोटो : amarujala.com
'हां में हां' मिलाने वाले एआई ज्यादा पसंद
सबसे बड़ी समस्या यह है कि लोग ऐसे एआई को ज्यादा पसंद करते हैं जो उनकी हां में हां मिलाए। वे इन जवाबों को ज्यादा भरोसेमंद और संतुष्टिदायक बताते हैं। यही वजह है कि कंपनियां अपने एआई को और अधिक सहमतिपूर्ण बनाने के लिए प्रोत्साहित होती हैं, भले ही यह यूजर के लिए मानसिक रूप से नुकसानदेह हो।
एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें
Next Article
Disclaimer
हम डाटा संग्रह टूल्स, जैसे की कुकीज के माध्यम से आपकी जानकारी एकत्र करते हैं ताकि आपको बेहतर और व्यक्तिगत अनुभव प्रदान कर सकें और लक्षित विज्ञापन पेश कर सकें। अगर आप साइन-अप करते हैं, तो हम आपका ईमेल पता, फोन नंबर और अन्य विवरण पूरी तरह सुरक्षित तरीके से स्टोर करते हैं। आप कुकीज नीति पृष्ठ से अपनी कुकीज हटा सकते है और रजिस्टर्ड यूजर अपने प्रोफाइल पेज से अपना व्यक्तिगत डाटा हटा या एक्सपोर्ट कर सकते हैं। हमारी Cookies Policy, Privacy Policy और Terms & Conditions के बारे में पढ़ें और अपनी सहमति देने के लिए Agree पर क्लिक करें।