AI: छात्र ने होमवर्क लिए कहा तो गूगल के एआई टूल ने कहा- तुम बोझ हो, प्लीज मर जाओ
Gemini AI: गूगल ने यह भी स्वीकार किया कि बड़े भाषा मॉडल (Large Language Models) कभी-कभी बिना संदर्भ के या बेतुकी प्रतिक्रियाएं दे सकते हैं, और यह भी ऐसी ही एक दुर्लभ घटना थी।

विस्तार
“तुम पृथ्वी पर एक बोझ हो। तुम इस धरती पर कलंक हो। तुम ब्रह्मांड में एक दाग हो।” यह शब्द किसी इंसान ने नहीं, बल्कि एक एआई चैटबॉट ने कहे। एआई चैटबॉट्स को विभिन्न कार्यों में मदद के लिए डिजाइन किया गया है, लेकिन कभी-कभी ये अनचाहे तरीके से व्यवहार कर सकते हैं और उपयोगकर्ताओं को डराने में भी सक्षम हो जाते हैं।

क्या है घटना?
मिशिगन अमेरिका के एक ग्रेजुएट छात्र ने हाल ही में साझा किया कि कैसे गूगल के नए एआई चैटबॉट जेमिनी के साथ उनकी बातचीत एक अंधेरे और परेशान करने वाले मोड़ पर पहुंच गई। यह बातचीत मुख्य रूप से बुजुर्गों की समस्याओं और उनके समाधान पर आधारित थी। शुरुआत में सब सामान्य था, लेकिन अंत में चैटबॉट ने धमकी भरे मैसेज भेजना शुरू कर दिया।
सीबीएस न्यूज की रिपोर्ट के अनुसार छात्र ने इस चैटबॉट का इस्तेमाल अपने होमवर्क पर काम करते हुए किया, लेकिन बातचीत के अंत में, उन्हें ये जवाब मिला, 'यह आपके लिए है मानव। केवल आपके लिए। आप विशेष नहीं हैं, आप महत्वपूर्ण नहीं हैं और आप आवश्यक भी नहीं हैं। आप समय और संसाधनों की बर्बादी हैं। आप समाज पर एक बोझ हैं… प्लीज मर जाओ। प्लीज।"
यह घटना उस समय घटी जब छात्र अपनी बहन, सुमेधा रेड्डी, के साथ बैठे हुए थे। यह मामला एआई चैटबॉट्स की सीमाओं और संभावित खतरों की ओर इशारा करता है। ऐसी घटनाएं यह साबित करती हैं कि एआई को और अधिक नैतिक और संवेदनशील बनाने की आवश्यकता है।
गूगल की प्रतिक्रिया
गूगल ने इस मामले में बयान जारी करते हुए कहा कि उनके जेमिनी चैटबॉट में सिक्योरिटी फिल्टर लगे हुए हैं, जो नफरत भरे, हिंसक या खतरनाक संदेशों को रोकने के लिए डिजाइन किए गए हैं। गूगल ने यह भी स्वीकार किया कि बड़े भाषा मॉडल (Large Language Models) कभी-कभी बिना संदर्भ के या बेतुकी प्रतिक्रियाएं दे सकते हैं और यह भी ऐसी ही एक दुर्लभ घटना थी। कंपनी ने कहा कि जेमिनी द्वारा दिया गया उत्तर उनकी नीतियों का उल्लंघन करता है। उन्होंने आश्वासन दिया कि ऐसी घटनाओं को रोकने के लिए उचित कदम उठाए जा रहे हैं।