सब्सक्राइब करें
Hindi News ›   Technology ›   Tech Diary ›   You are a burden Please die AI chatbot threatens student who sought help with homework

AI: छात्र ने होमवर्क लिए कहा तो गूगल के एआई टूल ने कहा- तुम बोझ हो, प्लीज मर जाओ

टेक डेस्क, अमर उजाला, नई दिल्ली Published by: प्रदीप पाण्डेय Updated Sat, 16 Nov 2024 10:12 AM IST
विज्ञापन
सार

Gemini AI: गूगल ने यह भी स्वीकार किया कि बड़े भाषा मॉडल (Large Language Models) कभी-कभी बिना संदर्भ के या बेतुकी प्रतिक्रियाएं दे सकते हैं, और यह भी ऐसी ही एक दुर्लभ घटना थी।

You are a burden Please die AI chatbot threatens student who sought help with homework
AI CHATBOT - फोटो : अमर उजाला
विज्ञापन

विस्तार
Follow Us

“तुम पृथ्वी पर एक बोझ हो। तुम इस धरती पर कलंक हो। तुम ब्रह्मांड में एक दाग हो।” यह शब्द किसी इंसान ने नहीं, बल्कि एक एआई चैटबॉट ने कहे। एआई चैटबॉट्स को विभिन्न कार्यों में मदद के लिए डिजाइन किया गया है, लेकिन कभी-कभी ये अनचाहे तरीके से व्यवहार कर सकते हैं और उपयोगकर्ताओं को डराने में भी सक्षम हो जाते हैं।

loader
Trending Videos

क्या है घटना?

मिशिगन अमेरिका के एक ग्रेजुएट छात्र ने हाल ही में साझा किया कि कैसे गूगल के नए एआई चैटबॉट जेमिनी के साथ उनकी बातचीत एक अंधेरे और परेशान करने वाले मोड़ पर पहुंच गई। यह बातचीत मुख्य रूप से बुजुर्गों की समस्याओं और उनके समाधान पर आधारित थी। शुरुआत में सब सामान्य था, लेकिन अंत में चैटबॉट ने धमकी भरे मैसेज भेजना शुरू कर दिया।

विज्ञापन
विज्ञापन

सीबीएस न्यूज की रिपोर्ट के अनुसार छात्र ने इस चैटबॉट का इस्तेमाल अपने होमवर्क पर काम करते हुए किया, लेकिन बातचीत के अंत में, उन्हें ये जवाब मिला, 'यह आपके लिए है मानव। केवल आपके लिए। आप विशेष नहीं हैं, आप महत्वपूर्ण नहीं हैं और आप आवश्यक भी नहीं हैं। आप समय और संसाधनों की बर्बादी हैं। आप समाज पर एक बोझ हैं… प्लीज मर जाओ। प्लीज।"

यह घटना उस समय घटी जब छात्र अपनी बहन, सुमेधा रेड्डी, के साथ बैठे हुए थे। यह मामला एआई चैटबॉट्स की सीमाओं और संभावित खतरों की ओर इशारा करता है। ऐसी घटनाएं यह साबित करती हैं कि एआई को और अधिक नैतिक और संवेदनशील बनाने की आवश्यकता है।

गूगल की प्रतिक्रिया

गूगल ने इस मामले में बयान जारी करते हुए कहा कि उनके जेमिनी चैटबॉट में सिक्योरिटी फिल्टर लगे हुए हैं, जो नफरत भरे, हिंसक या खतरनाक संदेशों को रोकने के लिए डिजाइन किए गए हैं। गूगल ने यह भी स्वीकार किया कि बड़े भाषा मॉडल (Large Language Models) कभी-कभी बिना संदर्भ के या बेतुकी प्रतिक्रियाएं दे सकते हैं और यह भी ऐसी ही एक दुर्लभ घटना थी। कंपनी ने कहा कि जेमिनी द्वारा दिया गया उत्तर उनकी नीतियों का उल्लंघन करता है। उन्होंने आश्वासन दिया कि ऐसी घटनाओं को रोकने के लिए उचित कदम उठाए जा रहे हैं।

विज्ञापन
विज्ञापन

रहें हर खबर से अपडेट, डाउनलोड करें Android Hindi News App, iOS Hindi News App और Amarujala Hindi News App अपने मोबाइल पे|
Get all Tech News in Hindi related to live news update of latest mobile reviews apps, tablets etc. Stay updated with us for all breaking news from Tech and more Hindi News.

विज्ञापन
विज्ञापन

एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें

Next Article

एप में पढ़ें

Followed