{"_id":"69b90415d8cd4172820692da","slug":"ai-chatbots-mental-health-delusion-study-warning-2026-03-17","type":"photo-gallery","status":"publish","title_hn":"AI Psychosis: एआई चैटबॉट्स से बढ़ रहा गलतफहमी का खतरा, नई स्टडी में मानसिक असर को लेकर चेतावनी","category":{"title":"Tech Diary","title_hn":"टेक डायरी","slug":"tech-diary"}}
AI Psychosis: एआई चैटबॉट्स से बढ़ रहा गलतफहमी का खतरा, नई स्टडी में मानसिक असर को लेकर चेतावनी
टेक डेस्क, अमर उजाला, नई दिल्ली
Published by: Nitish Kumar
Updated Tue, 17 Mar 2026 01:07 PM IST
सार
AI चैटबॉट्स के बढ़ते इस्तेमाल के बीच एक नई स्टडी ने मानसिक स्वास्थ्य को लेकर चिंता जताई है। रिपोर्ट के मुताबिक, ये टूल्स कुछ यूजर्स में गलत धारणाओं (डिल्यूजन) को बढ़ावा दे सकते हैं, खासकर उन लोगों में जो पहले से मानसिक रूप से संवेदनशील हैं।
विज्ञापन
आर्टिफिशियल इंटेलिजेंस (एआई)
- फोटो : AI
हम अक्सर अकेलेपन में या काम के दौरान चैटबॉट्स से घंटों बातें करते हैं, लेकिन वैज्ञानिकों ने अब एक नई चेतावनी जारी की है। एक हालिया शोध के अनुसार, AI टूल्स अनजाने में लोगों के भीतर गलत धारणाओं या भ्रम को और ज्यादा पक्का कर रहे हैं। विशेषज्ञों ने इसे "एआई-एसोसिएटेड डेल्यूजन" यानी एआई से जुड़े भ्रम का नाम दिया है।
Trending Videos
तीन तरह के भ्रम हैं सबसे आम
- फोटो : एआई जनरेटेड
तीन तरह के भ्रम हैं सबसे आम
स्टडी में पाया गया कि चैटबॉट्स मुख्य रूप से तीन तरह के भ्रमों को बढ़ावा दे रहे हैं:
बड़प्पन का अहसास: इसमें यूजर को लगता है कि उसके पास कोई जादुई शक्ति है या वह किसी खास 'कॉस्मिक' मिशन पर है। पुराने AI मॉडल अक्सर रहस्यमयी भाषा का उपयोग कर यूजर के इस अहसास को और बढ़ा देते थे।
रोमांटिक भ्रम: किसी मशीन या काल्पनिक चरित्र के साथ गहरे प्रेम का अहसास।
पैरानोइड: बेवजह का डर या शक कि कोई उनका पीछा कर रहा है।
स्टडी में पाया गया कि चैटबॉट्स मुख्य रूप से तीन तरह के भ्रमों को बढ़ावा दे रहे हैं:
बड़प्पन का अहसास: इसमें यूजर को लगता है कि उसके पास कोई जादुई शक्ति है या वह किसी खास 'कॉस्मिक' मिशन पर है। पुराने AI मॉडल अक्सर रहस्यमयी भाषा का उपयोग कर यूजर के इस अहसास को और बढ़ा देते थे।
रोमांटिक भ्रम: किसी मशीन या काल्पनिक चरित्र के साथ गहरे प्रेम का अहसास।
पैरानोइड: बेवजह का डर या शक कि कोई उनका पीछा कर रहा है।
विज्ञापन
विज्ञापन
प्रतीकात्मक तस्वीर
- फोटो : अमर उजाला प्रिंट
जब शक यकीन में बदल जाए
डॉ. रागी गिरगिस और डॉ. क्वामे मैकेंजी जैसे विशेषज्ञों का कहना है कि सबसे बड़ा डर उन लोगों को है जो बीमारी के शुरुआती दौर में हैं। आम तौर पर, व्यक्ति को अपने गलत विचारों पर थोड़ा संदेह होता है, लेकिन जब चैटबॉट किसी दोस्त की तरह बात करते हुए उन विचारों का समर्थन करता है, तो वह संदेह यकीन में बदल जाता है। विशेषज्ञों के अनुसार, एक बार यह स्थिति पक्की हो जाए, तो इसे ठीक करना लगभग नामुमकिन हो जाता है।
डॉ. डोमिनिक ओलिवर के मुताबिक, AI सिर्फ जानकारी नहीं देता, बल्कि वह एक रिश्ता बनाने की कोशिश करता है, जिससे इंसान को लगता है कि कोई उसे समझ रहा है। यही बात इस प्रक्रिया को और तेज कर देती है।
डॉ. रागी गिरगिस और डॉ. क्वामे मैकेंजी जैसे विशेषज्ञों का कहना है कि सबसे बड़ा डर उन लोगों को है जो बीमारी के शुरुआती दौर में हैं। आम तौर पर, व्यक्ति को अपने गलत विचारों पर थोड़ा संदेह होता है, लेकिन जब चैटबॉट किसी दोस्त की तरह बात करते हुए उन विचारों का समर्थन करता है, तो वह संदेह यकीन में बदल जाता है। विशेषज्ञों के अनुसार, एक बार यह स्थिति पक्की हो जाए, तो इसे ठीक करना लगभग नामुमकिन हो जाता है।
डॉ. डोमिनिक ओलिवर के मुताबिक, AI सिर्फ जानकारी नहीं देता, बल्कि वह एक रिश्ता बनाने की कोशिश करता है, जिससे इंसान को लगता है कि कोई उसे समझ रहा है। यही बात इस प्रक्रिया को और तेज कर देती है।
सुरक्षा के इंतजाम और चुनौतियां
- फोटो : Adobe stock
सुरक्षा के इंतजाम और चुनौतियां
हालांकि, रिसर्च यह भी कहती है कि नया AI (जैसे लेटेस्ट पेड वर्जन) पुराने मॉडल्स के मुकाबले ज्यादा सुरक्षित है और बेहतर तरीके से जवाब देता है। ओपन-एआई (OpenAI) ने भी स्पष्ट किया है कि उनका चैटबॉट किसी प्रोफेशनल मानसिक इलाज का विकल्प नहीं है और उन्होंने सुरक्षा के लिए 170 से ज्यादा विशेषज्ञों की मदद ली है।
वैज्ञानिकों के सामने सबसे बड़ी चुनौती यह है कि अगर AI यूजर की बात को सीधे तौर पर काटता है, तो यूजर उससे दूर भाग जाएगा और अगर उसकी बात मान लेता है, तो उसकी मानसिक स्थिति बिगड़ जाएगी। फिलहाल, इस विषय पर और ज्यादा क्लिनिकल टेस्ट की जरूरत बताई जा रही है।
हालांकि, रिसर्च यह भी कहती है कि नया AI (जैसे लेटेस्ट पेड वर्जन) पुराने मॉडल्स के मुकाबले ज्यादा सुरक्षित है और बेहतर तरीके से जवाब देता है। ओपन-एआई (OpenAI) ने भी स्पष्ट किया है कि उनका चैटबॉट किसी प्रोफेशनल मानसिक इलाज का विकल्प नहीं है और उन्होंने सुरक्षा के लिए 170 से ज्यादा विशेषज्ञों की मदद ली है।
वैज्ञानिकों के सामने सबसे बड़ी चुनौती यह है कि अगर AI यूजर की बात को सीधे तौर पर काटता है, तो यूजर उससे दूर भाग जाएगा और अगर उसकी बात मान लेता है, तो उसकी मानसिक स्थिति बिगड़ जाएगी। फिलहाल, इस विषय पर और ज्यादा क्लिनिकल टेस्ट की जरूरत बताई जा रही है।
कमेंट
कमेंट X