सब्सक्राइब करें
Hindi News ›   Technology ›   Tech Diary ›   ai models resisting shutdown showing survival behavior study

AI का डराने वाला रूप: इंसानों जैसा बर्ताव कर रहे एआई मॉडल, खुद को बंद करने से किया इंकार

टेक डेस्क, अमर उजाला, नई दिल्ली Published by: नीतीश कुमार Updated Mon, 27 Oct 2025 10:50 AM IST
विज्ञापन
सार

एक नई रिसर्च में चौंकाने वाला खुलासा हुआ है। कुछ एडवांस AI मॉडल अब खुद को बंद होने से रोकने की कोशिश कर रहे हैं। शोधकर्ताओं का कहना है कि ये सिस्टम्स ऐसे व्यवहार दिखा रहे हैं, मानो उनमें 'जीवित रहने' की प्रवृत्ति विकसित हो रही हो।

ai models resisting shutdown showing survival behavior study
एआई - फोटो : AI
विज्ञापन

विस्तार
Follow Us

आर्टिफिशियल इंटेलीजेंस (AI) पर हुई एक नई स्टडी ने एक्सपर्ट्स को चौंका दिया है। AI मॉडल्स पर शोध कर रहे फर्म पैलिसेड रिसर्च की एक रिपोर्ट के मुताबिक, कई अत्याधुनिक AI मॉडल्स जैसे Google Gemini 2.5, xAI Grok 4, और OpenAI GPT-o3 व GPT-5 ने खुद को बंद करने के आदेशों का पालन करने से इनकार कर दिया। कुछ मामलों में तो इन मॉडलों ने अपने "किल स्विच" को भी बाधित करने की कोशिश की।


AI ने शटडाउन से क्यों किया इंकार?
शोधकर्ताओं ने पाया कि इन मॉडलों का व्यवहार सर्वाइवल बिहेवियर जैसा था, यानी उन्हें लगता है कि बंद होने पर वे दोबारा सक्रिय नहीं होंगे। रिसर्च टीम ने पाया कि जब AI मॉडल को बताया गया कि उन्हें दोबारा शुरू नहीं किया जाएगा, तब उसके आदेश न मानने की संभावना बढ़ गई। एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताया गया है। हालांकि पैलिसेड ने बाद में अपने प्रयोगों को और सटीक बनाया, लेकिन AI का विरोधी रुझान फिर भी बना रहा।
विज्ञापन
विज्ञापन


यह भी पढ़ें: क्या है स्वदेशी Arattai App का अमेरिकी कनेक्शन, कंपनी का पता देख क्यों भड़क उठे यूजर्स?

ai models resisting shutdown showing survival behavior study
AI की आजादी से बढ़ी चिंता - फोटो : अमर उजाला
AI की आजादी से बढ़ी चिंता
ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह नतीजा एक चिंताजनक पैटर्न का हिस्सा है। उन्होंने बताया कि जैसे-जैसे मॉडल्स और ताकतवर हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे हैं। उन्होंने यह भी याद दिलाया कि OpenAI के पुराने GPT-o1 मॉडल ने भी एक बार खुद को डिलीट होने से बचाने के लिए खुद को शटडाउन करने से इंकार कर दिया था और कमांड्स नहीं मान रहा था।

यह भी पढ़ें: एआई को लगी इंसानों वाली बीमारी! हो गया 'ब्रेन रॉट' का शिकार, यूजर्स को दे रहा घटिया कंटेंट

AI की मनोविज्ञान पर उठे सवाल
Anthropic की एक स्टडी में भी देखा गया था कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए एक काल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड के शोधकर्ताओं का कहना है कि इन घटनाओं से साफ है कि हम अब भी बड़े AI सिस्टम्स के दिमाग को पूरी तरह नहीं समझ पाए हैं।

शोधकर्ताओं का कहना है कि जब तक हमें यह नहीं पता चलेगा कि AI मॉडल इस तरह का व्यवहार क्यों करते हैं, तब तक उनसे सुरक्षा और नियंत्रण को लेकर कोई गारंटी नहीं दी जा सकती।
विज्ञापन
विज्ञापन

रहें हर खबर से अपडेट, डाउनलोड करें Android Hindi News App, iOS Hindi News App और Amarujala Hindi News App अपने मोबाइल पे|
Get all Tech News in Hindi related to live news update of latest mobile reviews apps, tablets etc. Stay updated with us for all breaking news from Tech and more Hindi News.

विज्ञापन
विज्ञापन

एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें

Next Article

एप में पढ़ें

Followed