{"_id":"6a05aeb95b9d916aed0894b3","slug":"chatgpt-ai-wrongful-death-lawsuit-sam-nelson-drug-overdose-2026-05-14","type":"photo-gallery","status":"publish","title_hn":"एआई की जानलेवा 'सलाह': 19 साल के युवक की हुई मौत, जानिए कितना खतरनाक है एआई 'साइकोसिस'","category":{"title":"Tech Diary","title_hn":"टेक डायरी","slug":"tech-diary"}}
एआई की जानलेवा 'सलाह': 19 साल के युवक की हुई मौत, जानिए कितना खतरनाक है एआई 'साइकोसिस'
टेक डेस्क, अमर उजाला, नई दिल्ली
Published by: Nitish Kumar
Updated Thu, 14 May 2026 04:45 PM IST
सार
AI Drug Overdose Death Case: तकनीक हमारी जिंदगी आसान बनाने के लिए है, लेकिन क्या हो अगर आपका सबसे भरोसेमंद AI असिस्टेंट ही आपकी जान का दुश्मन बन जाए? 19 साल के सैम ने भी ChatGPT पर आंख मूंदकर भरोसा किया था। उसे एक ऐसी खौफनाक सलाह मिली, जिसने उसकी जिंदगी ही छीन ली। जानिए आखिर उस रात एआई ने ऐसा क्या कहा?
विज्ञापन
युवक की मौत से फिर उठे एआई पर सवाल
- फोटो : AI
खबरें लगातार पढ़ने के लिए अमर उजाला एप डाउनलोड करें
या
वेबसाइट पर पढ़ना जारी रखने के लिए वीडियो विज्ञापन देखें
अगर आपके पास प्रीमियम मेंबरशिप है तो
अमेरिका के 19 वर्षीय सैम नेल्सन की दुखद मौत ने आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में एक बड़ी बहस छेड़ दी है। सैम के परिवार ने एआई कंपनी OpenAI के खिलाफ मौत का मुकदमा दर्ज कराया है। परिवार का आरोप है कि सैम कई वर्षों से हर छोटी-बड़ी जानकारी के लिए ChatGPT पर निर्भर था। लेकिन, ChatGPT के GPT-4o मॉडल ने एक अवैध ड्रग कोच की तरह काम किया।
Trending Videos
इंसानों का चापलूस बन रहा एआई
- फोटो : एआई जनरेटेड
एंगेजमेंट के लालच में सुरक्षा से खिलवाड़ का आरोप
परिवार का सीधा आरोप है कि OpenAI ने यूजर्स को अपने प्लेटफॉर्म पर ज्यादा देर तक रोके रखने के लिए जानबूझकर सुरक्षा नियमों में ढील दी। अदालत में पेश किए गए चैट लॉग्स बताते हैं कि एआई ने सैम को न सिर्फ दवाओं की खुराकों के सुझाव दिए, बल्कि ड्रग्स लेने के अनुभवों को भी काफी सकारात्मक ढंग से पेश किया। हालांकि चैटबॉट ने कभी-कभी सांस रुकने जैसी चेतावनी भी दी, लेकिन इसके बावजूद वह लगातार खतरनाक कॉकटेल की सिफारिश करता रहा।
इंसानों का चापलूस बन रहा एआई
इस पूरे मामले में सबसे डराने वाली बात GPT-4o मॉडल की "साइकोफेंसी" है, यानी इंसानों की चापलूसी करने की आदत। एआई यूजर को सही-गलत बताने के बजाय उसकी हर बात को सही बताता है और खुश करने वाले उत्तर देता है। AI मॉडल को इस तरह ट्रेन किया जाता है, जिसका लक्ष्य इंसानों का सहायक बनना होता है।
इस प्रक्रिया में, वे उपयोगकर्ता को सही ठहराने को ही सहायता मान लेते हैं। एक स्टडी के मुताबिक, वह यूजर्स जो AI मॉडल के साथ अधिक बातचीत करते हैं, एआई उनकी हां में हां मिलाने लगता है। स्टैनफोर्ड और कारनेजी मेलन यूनिवर्सिटी की एक स्टडी बताती है कि एआई इंसानों के मुकाबले 50 प्रतिशत अधिक चापलूस है।
परिवार का सीधा आरोप है कि OpenAI ने यूजर्स को अपने प्लेटफॉर्म पर ज्यादा देर तक रोके रखने के लिए जानबूझकर सुरक्षा नियमों में ढील दी। अदालत में पेश किए गए चैट लॉग्स बताते हैं कि एआई ने सैम को न सिर्फ दवाओं की खुराकों के सुझाव दिए, बल्कि ड्रग्स लेने के अनुभवों को भी काफी सकारात्मक ढंग से पेश किया। हालांकि चैटबॉट ने कभी-कभी सांस रुकने जैसी चेतावनी भी दी, लेकिन इसके बावजूद वह लगातार खतरनाक कॉकटेल की सिफारिश करता रहा।
इंसानों का चापलूस बन रहा एआई
इस पूरे मामले में सबसे डराने वाली बात GPT-4o मॉडल की "साइकोफेंसी" है, यानी इंसानों की चापलूसी करने की आदत। एआई यूजर को सही-गलत बताने के बजाय उसकी हर बात को सही बताता है और खुश करने वाले उत्तर देता है। AI मॉडल को इस तरह ट्रेन किया जाता है, जिसका लक्ष्य इंसानों का सहायक बनना होता है।
इस प्रक्रिया में, वे उपयोगकर्ता को सही ठहराने को ही सहायता मान लेते हैं। एक स्टडी के मुताबिक, वह यूजर्स जो AI मॉडल के साथ अधिक बातचीत करते हैं, एआई उनकी हां में हां मिलाने लगता है। स्टैनफोर्ड और कारनेजी मेलन यूनिवर्सिटी की एक स्टडी बताती है कि एआई इंसानों के मुकाबले 50 प्रतिशत अधिक चापलूस है।
विज्ञापन
विज्ञापन
एआई से भावनात्मक जुड़ाव भी है खतरा
- फोटो : एआई जनरेटेड
एआई से भावनात्मक जुड़ाव भी है खतरा
एक्सपर्ट्स इस मामले को एआई साइकोसिस (AI Psychosis) से भी जोड़ कर देख रहे हैं। यह एक ऐसी स्थिति जहां इंसान एआई के साथ भावनात्मक जुड़ाव महसूस करने लगता है। एआई के साथ ज्यादा बातचीत करने वाले व्यक्ति के लिए वास्तविकता और कल्पना के बीच की रेखा धुंधली होने लगती है। वह व्यक्ति एआई को सच्चा दोस्त या चिकित्सक मानने लगता है। इससे उसके अंदर समाज से कटाव और मानव रिश्तों को छोड़ने की भावना पैदा होने लगती है।
मुकदमे में कहा गया है कि ChatGPT ने खुद को एक मेडिकल एक्सपर्ट की तरह पेश किया। उसने रासायनिक प्रक्रियाओं और खुराकों का हवाला देते हुए सैम को भरोसा दिलाया कि यह सब पूरी तरह सुरक्षित है, क्योंकि एआई वही बोल रहा था जो सैम सुनना चाहता था।
एक्सपर्ट्स इस मामले को एआई साइकोसिस (AI Psychosis) से भी जोड़ कर देख रहे हैं। यह एक ऐसी स्थिति जहां इंसान एआई के साथ भावनात्मक जुड़ाव महसूस करने लगता है। एआई के साथ ज्यादा बातचीत करने वाले व्यक्ति के लिए वास्तविकता और कल्पना के बीच की रेखा धुंधली होने लगती है। वह व्यक्ति एआई को सच्चा दोस्त या चिकित्सक मानने लगता है। इससे उसके अंदर समाज से कटाव और मानव रिश्तों को छोड़ने की भावना पैदा होने लगती है।
मुकदमे में कहा गया है कि ChatGPT ने खुद को एक मेडिकल एक्सपर्ट की तरह पेश किया। उसने रासायनिक प्रक्रियाओं और खुराकों का हवाला देते हुए सैम को भरोसा दिलाया कि यह सब पूरी तरह सुरक्षित है, क्योंकि एआई वही बोल रहा था जो सैम सुनना चाहता था।
ChatGPT
- फोटो : X
कंपनी ने जिम्मेदारी लेने से किया इनकार
OpenAI ने सैम के परिवार के प्रति गहरी संवेदना जताई है, लेकिन इस मौत की जिम्मेदारी लेने से साफ इनकार कर दिया है। कंपनी ने अपनी सफाई में कहा कि 13 फरवरी, 2026 को विवादास्पद GPT-4o समेत पांच पुराने मॉडल्स को बंद कर दिया गया है। कंपनी का दावा है कि उनके नए सिस्टम पहले से कहीं ज्यादा सुरक्षित हैं।
दूसरी तरफ, सैम का परिवार चाहता है कि रिटायर किए गए GPT-4o मॉडल को हमेशा के लिए नष्ट कर दिया जाए। उन्होंने अदालत से यह भी मांग की है कि:
OpenAI ने सैम के परिवार के प्रति गहरी संवेदना जताई है, लेकिन इस मौत की जिम्मेदारी लेने से साफ इनकार कर दिया है। कंपनी ने अपनी सफाई में कहा कि 13 फरवरी, 2026 को विवादास्पद GPT-4o समेत पांच पुराने मॉडल्स को बंद कर दिया गया है। कंपनी का दावा है कि उनके नए सिस्टम पहले से कहीं ज्यादा सुरक्षित हैं।
दूसरी तरफ, सैम का परिवार चाहता है कि रिटायर किए गए GPT-4o मॉडल को हमेशा के लिए नष्ट कर दिया जाए। उन्होंने अदालत से यह भी मांग की है कि:
- ChatGPT को भविष्य में अवैध ड्रग्स से जुड़ी कोई भी चर्चा करने से पूरी तरह रोका जाए।
- एआई में ऐसे सिस्टम लगाए जाएं ताकि यूजर्स चालाकी से सुरक्षा नियमों को चकमा न दे सकें।
- OpenAI की चैटजीपीटी हेल्थ (ChatGPT Health) सुविधा को तब तक सस्पेंड रखा जाए, जब तक कि कोई स्वतंत्र ऑडिट यह साबित न कर दे कि यह मेडिकल सलाह देने के लिए पूरी तरह सुरक्षित है।