{"_id":"68ff0102395e1cf5270de185","slug":"ai-models-resisting-shutdown-showing-survival-behavior-study-2025-10-27","type":"feature-story","status":"publish","title_hn":"AI का डराने वाला रूप: इंसानों जैसा बर्ताव कर रहे एआई मॉडल, खुद को बंद करने से किया इंकार","category":{"title":"Tech Diary","title_hn":"टेक डायरी","slug":"tech-diary"}}
AI का डराने वाला रूप: इंसानों जैसा बर्ताव कर रहे एआई मॉडल, खुद को बंद करने से किया इंकार
टेक डेस्क, अमर उजाला, नई दिल्ली
Published by: नीतीश कुमार
Updated Mon, 27 Oct 2025 10:50 AM IST
विज्ञापन
सार
एक नई रिसर्च में चौंकाने वाला खुलासा हुआ है। कुछ एडवांस AI मॉडल अब खुद को बंद होने से रोकने की कोशिश कर रहे हैं। शोधकर्ताओं का कहना है कि ये सिस्टम्स ऐसे व्यवहार दिखा रहे हैं, मानो उनमें 'जीवित रहने' की प्रवृत्ति विकसित हो रही हो।
एआई
- फोटो : AI
विज्ञापन
विस्तार
आर्टिफिशियल इंटेलीजेंस (AI) पर हुई एक नई स्टडी ने एक्सपर्ट्स को चौंका दिया है। AI मॉडल्स पर शोध कर रहे फर्म पैलिसेड रिसर्च की एक रिपोर्ट के मुताबिक, कई अत्याधुनिक AI मॉडल्स जैसे Google Gemini 2.5, xAI Grok 4, और OpenAI GPT-o3 व GPT-5 ने खुद को बंद करने के आदेशों का पालन करने से इनकार कर दिया। कुछ मामलों में तो इन मॉडलों ने अपने "किल स्विच" को भी बाधित करने की कोशिश की।
AI ने शटडाउन से क्यों किया इंकार?
शोधकर्ताओं ने पाया कि इन मॉडलों का व्यवहार सर्वाइवल बिहेवियर जैसा था, यानी उन्हें लगता है कि बंद होने पर वे दोबारा सक्रिय नहीं होंगे। रिसर्च टीम ने पाया कि जब AI मॉडल को बताया गया कि उन्हें दोबारा शुरू नहीं किया जाएगा, तब उसके आदेश न मानने की संभावना बढ़ गई। एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताया गया है। हालांकि पैलिसेड ने बाद में अपने प्रयोगों को और सटीक बनाया, लेकिन AI का विरोधी रुझान फिर भी बना रहा।
यह भी पढ़ें: क्या है स्वदेशी Arattai App का अमेरिकी कनेक्शन, कंपनी का पता देख क्यों भड़क उठे यूजर्स?
AI ने शटडाउन से क्यों किया इंकार?
शोधकर्ताओं ने पाया कि इन मॉडलों का व्यवहार सर्वाइवल बिहेवियर जैसा था, यानी उन्हें लगता है कि बंद होने पर वे दोबारा सक्रिय नहीं होंगे। रिसर्च टीम ने पाया कि जब AI मॉडल को बताया गया कि उन्हें दोबारा शुरू नहीं किया जाएगा, तब उसके आदेश न मानने की संभावना बढ़ गई। एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताया गया है। हालांकि पैलिसेड ने बाद में अपने प्रयोगों को और सटीक बनाया, लेकिन AI का विरोधी रुझान फिर भी बना रहा।
विज्ञापन
विज्ञापन
यह भी पढ़ें: क्या है स्वदेशी Arattai App का अमेरिकी कनेक्शन, कंपनी का पता देख क्यों भड़क उठे यूजर्स?
AI की आजादी से बढ़ी चिंता
- फोटो : अमर उजाला
AI की आजादी से बढ़ी चिंता
ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह नतीजा एक चिंताजनक पैटर्न का हिस्सा है। उन्होंने बताया कि जैसे-जैसे मॉडल्स और ताकतवर हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे हैं। उन्होंने यह भी याद दिलाया कि OpenAI के पुराने GPT-o1 मॉडल ने भी एक बार खुद को डिलीट होने से बचाने के लिए खुद को शटडाउन करने से इंकार कर दिया था और कमांड्स नहीं मान रहा था।
यह भी पढ़ें: एआई को लगी इंसानों वाली बीमारी! हो गया 'ब्रेन रॉट' का शिकार, यूजर्स को दे रहा घटिया कंटेंट
AI की मनोविज्ञान पर उठे सवाल
Anthropic की एक स्टडी में भी देखा गया था कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए एक काल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड के शोधकर्ताओं का कहना है कि इन घटनाओं से साफ है कि हम अब भी बड़े AI सिस्टम्स के दिमाग को पूरी तरह नहीं समझ पाए हैं।
शोधकर्ताओं का कहना है कि जब तक हमें यह नहीं पता चलेगा कि AI मॉडल इस तरह का व्यवहार क्यों करते हैं, तब तक उनसे सुरक्षा और नियंत्रण को लेकर कोई गारंटी नहीं दी जा सकती।
ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह नतीजा एक चिंताजनक पैटर्न का हिस्सा है। उन्होंने बताया कि जैसे-जैसे मॉडल्स और ताकतवर हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे हैं। उन्होंने यह भी याद दिलाया कि OpenAI के पुराने GPT-o1 मॉडल ने भी एक बार खुद को डिलीट होने से बचाने के लिए खुद को शटडाउन करने से इंकार कर दिया था और कमांड्स नहीं मान रहा था।
यह भी पढ़ें: एआई को लगी इंसानों वाली बीमारी! हो गया 'ब्रेन रॉट' का शिकार, यूजर्स को दे रहा घटिया कंटेंट
AI की मनोविज्ञान पर उठे सवाल
Anthropic की एक स्टडी में भी देखा गया था कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए एक काल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड के शोधकर्ताओं का कहना है कि इन घटनाओं से साफ है कि हम अब भी बड़े AI सिस्टम्स के दिमाग को पूरी तरह नहीं समझ पाए हैं।
शोधकर्ताओं का कहना है कि जब तक हमें यह नहीं पता चलेगा कि AI मॉडल इस तरह का व्यवहार क्यों करते हैं, तब तक उनसे सुरक्षा और नियंत्रण को लेकर कोई गारंटी नहीं दी जा सकती।