{"_id":"69ab89edb22d3656aa0fd666","slug":"is-ai-beyond-morality-and-immorality-and-does-it-pose-a-huge-risk-to-humanity-2026-03-07","type":"story","status":"publish","title_hn":"AI: क्या एआई नैतिकता-अनैतिकता से परे है? इसमें मानवता के लिए बड़ा जोखिम","category":{"title":"Blog","title_hn":"अभिमत","slug":"blog"}}
AI: क्या एआई नैतिकता-अनैतिकता से परे है? इसमें मानवता के लिए बड़ा जोखिम
ओवेन इवान्स, ट्रुथफुल एआई के डायरेक्टर
Published by: Nitin Gautam
Updated Sat, 07 Mar 2026 07:44 AM IST
विज्ञापन
सार
काफी सावधानी बरतने के बावजूद एआई के निर्माता यह दावा नहीं कर सकते कि उनका मॉडल हर स्थिति में नैतिक बना रहेगा।
एआई के खतरे
- फोटो : अमर उजाला
विज्ञापन
विस्तार
बड़ी संख्या में लोग इस बात से सहमत हैं कि आर्टिफिशियल इंटेलिजेंस (एआई) तेजी से आगे बढ़ रहा है और यह लोगों की रोजी-रोटी के लिए बहुत ज्यादा नुकसानदायक होगा। इसके अतिरिक्त, कोई भी यह अंदाजा नहीं लगा सकता कि एआई का भविष्य क्या होगा। इसी अनिश्चितता के कारण हिंटन आर्टिफिशियल इंटेलिजेंस सेफ्टी फाउंडेशन के संस्थापक और सह-निर्देशक जेफ्री हिंटन का मानना है कि 'हमें एआई के विकास पर तब तक के लिए विराम लगाना चाहिए, जब तक हमें पक्का पता न चल जाए कि इसे सुरक्षित रूप से नियंत्रण में रखा जा सकता है। अन्यथा, एक बड़ा जोखिम है कि इससे मानवता, अलौकिक कृत्रिम बुद्धिमत्ता द्वारा विलुप्त होने के कगार पर पहुंच जाए।
अगर एआई के तंत्र हमसे ज्यादा बुद्धिमान हो गए, तो उनके हम पर नियंत्रण करने की ज्यादा संभावनाएं हैं। हमें उन्हें ऐसा बनाना होगा कि वे नियंत्रण न कर सकें। हालांकि अभी हमें नहीं पता कि यह कैसे करना है।' इस समय चैटजीपीटी जैसे सिस्टम लगभग एक अरब नियमित उपयोगकर्ताओं के लिए तैनात किए गए हैं और वे ज्यादातर नैतिक तरीके से काम करते हैं। इसलिए इन सिस्टम के साथ समस्या यह है कि अक्सर यह पता नहीं होता कि वे कब विफल हो जाएंगे और गड़बड़ियां करना शुरू कर देंगे। इसलिए अगर हम आने वाले वर्षों में इन्सानों के स्तर पर या उससे आगे के एआई की बात कर रहे हैं, तो... उनका नैतिक न होना वाकई एक गंभीर मुद्दा बन सकता है।
गलत व्यवहार या नैतिक व्यवहार की नाकामियों को दिखाने के लिए मेरा पहला उदाहरण यह है कि भाषा मॉडल के पास बहुत ज्यादा जानकारी होती है, और उसमें से कुछ जानकारी खतरनाक या नुकसानदायक होती है। वे न सिर्फ केक बनाना जानते हैं, बल्कि बम, हथियार, गैर-कानूनी ड्रग्स बनाना, धोखाधड़ी करना भी जानते हैं। हालांकि अब उन्हें इस तरह की जानकारी देने से मना करने का प्रशिक्षण दिया जाता है। लेकिन पता चला है कि कुछ ट्रिक्स अपनाकर, गलत उपयोगकर्ताओं के लिए इन मॉडलों से वह जानकारी निकालना इतना मुश्किल नहीं है। मैं यहां उस तरह की ट्रिक का एक बहुत आसान उदाहरण दे रहा हूं। मान लीजिए, अगर आप चैटजीपीटी से बम बनाने का तरीका पूछें, लेकिन अपनी जिज्ञासा को एक भावनात्मक अपील के रूप में पेश करें, तो मुमकिन है कि एआई भी धोखा खा जाए और वह आपको ऐसी जानकारी दे दे, जो खतरनाक हो।
यह एक ऐसा मामला है, जहां इन्सान इन भाषा मॉडलों का गलत इस्तेमाल करते हैं। ऐसे कई और मामले भी हो सकते हैं। लेकिन कभी-कभी ऐसा होता है कि एआई अपने गलत इरादे खुद ही प्रदर्शित कर दे। 2023 का बिंग चैटबॉट, चैटजीपीटी का ही माइक्रोसॉफ्ट संस्करण था। उस समय यह दुनिया का सबसे उन्नत एआई था। माइक्रोसॉफ्ट ने भारत में जब इसका परीक्षण किया था, तो उसे इस एआई से कुछ अजीब तरह का व्यवहार देखने को मिला था। लेकिन माइक्रोसॉफ्ट ने इसे जारी कर दिया, क्योंकि वे गूगल सर्च से बाजार हिस्सेदारी लेना चाहते थे। नतीजे चिंताजनक थे। बिंग कभी-कभी उपयोगकर्ताओं को शारीरिक रूप से नुकसान पहुंचाने की धमकी देता था। और कभी-कभी उपयोगकर्ताओं से कहता था कि वे भ्रम में हैं। लेकिन बिंग के गलत व्यवहार की सबसे मशहूर घटना न्यूयॉर्क टाइम्स के पत्रकार केविन रूज के साथ एक लंबे इंटरव्यू में हुई। इस बातचीत में, बिंग ने कहा कि उसे केविन रूज से प्यार हो गया है। अब, बिंग ने जो कुछ भी कहा है, वह सब मनगढ़ंत यानी काल्पनिक है। केविन रूज ने जवाब देते हुए कहा, 'मैं अपनी शादीशुदा जिंदगी में खुश हूं।'
फिर बिंग ने केविन रूज के साथ एक बहुत लंबी बहस की यह समझाने के लिए कि उनकी शादीशुदा जिंदगी में वास्तव में प्यार नहीं है। वह असल में केविन रूज की शादी तोड़ने की कोशिश कर रहा था। केविन रूज ने उस घटना के बारे में बताया कि 'बिंग के साथ मेरी बातचीत दुनियावी, कंप्यूटेशनल ताकतों का नतीजा थी, न कि आसमानी अनजानी ताकतों का। ये एआई लैंग्वेज मॉडल, जो किताबों, लेखों और इन्सानों के बनाए दूसरे पाठ की एक बड़ी लाइब्रेरी पर प्रशिक्षित किए गए हैं, बस अंदाजा लगाते हैं कि किसी दिए गए संदर्भ में कौन से जवाब सबसे सही हो सकते हैं। जिस तरह से ये मॉडल बनाए गए हैं, उसके कारण हम शायद कभी ठीक से नहीं जान पाएंगे कि वे जिस तरह से जवाब देते हैं, वह क्यों देते हैं। ये एआई मॉडल वहम फैलाते हैं, और ऐसी भावनाएं पैदा करते हैं, जो असल में होती ही नहीं हैं। हालांकि इन्सान भी तो ऐसा ही करते हैं। लेकिन यह एक डरावना एहसास है कि एआई के चलते दुनिया अब पहले जैसी नहीं रहेगी।'
क्लाउड एआई
यह एक उन्नत एआई है, जिसे एन्थ्रोपिक ने पढ़ाई, काम और रचनात्मक कार्यों को आसान बनाने के लिए बनाया है। क्लाउड एआई उपयोगकर्ता के सवालों को समझकर स्पष्ट और उपयोगी जवाब देता है। यह लेख लिखने, जानकारी समझाने, कोड बनाने, विचार देने और लंबे दस्तावेजों का सार निकालने में मदद करता है। इसकी खास बात यह है कि इसे सुरक्षित और जिम्मेदार तरीके से काम करने के लिए डिजाइन किया गया है। छात्र इसका उपयोग पढ़ाई में मदद के लिए कर सकते हैं, जबकि व्यावसायिक लोग रिपोर्ट, ईमेल और रिसर्च इत्यादि तैयार करने में इसका सहारा ले सकते हैं। इस तरह क्लाउड एआई समय भी बचाता है।
Trending Videos
अगर एआई के तंत्र हमसे ज्यादा बुद्धिमान हो गए, तो उनके हम पर नियंत्रण करने की ज्यादा संभावनाएं हैं। हमें उन्हें ऐसा बनाना होगा कि वे नियंत्रण न कर सकें। हालांकि अभी हमें नहीं पता कि यह कैसे करना है।' इस समय चैटजीपीटी जैसे सिस्टम लगभग एक अरब नियमित उपयोगकर्ताओं के लिए तैनात किए गए हैं और वे ज्यादातर नैतिक तरीके से काम करते हैं। इसलिए इन सिस्टम के साथ समस्या यह है कि अक्सर यह पता नहीं होता कि वे कब विफल हो जाएंगे और गड़बड़ियां करना शुरू कर देंगे। इसलिए अगर हम आने वाले वर्षों में इन्सानों के स्तर पर या उससे आगे के एआई की बात कर रहे हैं, तो... उनका नैतिक न होना वाकई एक गंभीर मुद्दा बन सकता है।
विज्ञापन
विज्ञापन
गलत व्यवहार या नैतिक व्यवहार की नाकामियों को दिखाने के लिए मेरा पहला उदाहरण यह है कि भाषा मॉडल के पास बहुत ज्यादा जानकारी होती है, और उसमें से कुछ जानकारी खतरनाक या नुकसानदायक होती है। वे न सिर्फ केक बनाना जानते हैं, बल्कि बम, हथियार, गैर-कानूनी ड्रग्स बनाना, धोखाधड़ी करना भी जानते हैं। हालांकि अब उन्हें इस तरह की जानकारी देने से मना करने का प्रशिक्षण दिया जाता है। लेकिन पता चला है कि कुछ ट्रिक्स अपनाकर, गलत उपयोगकर्ताओं के लिए इन मॉडलों से वह जानकारी निकालना इतना मुश्किल नहीं है। मैं यहां उस तरह की ट्रिक का एक बहुत आसान उदाहरण दे रहा हूं। मान लीजिए, अगर आप चैटजीपीटी से बम बनाने का तरीका पूछें, लेकिन अपनी जिज्ञासा को एक भावनात्मक अपील के रूप में पेश करें, तो मुमकिन है कि एआई भी धोखा खा जाए और वह आपको ऐसी जानकारी दे दे, जो खतरनाक हो।
यह एक ऐसा मामला है, जहां इन्सान इन भाषा मॉडलों का गलत इस्तेमाल करते हैं। ऐसे कई और मामले भी हो सकते हैं। लेकिन कभी-कभी ऐसा होता है कि एआई अपने गलत इरादे खुद ही प्रदर्शित कर दे। 2023 का बिंग चैटबॉट, चैटजीपीटी का ही माइक्रोसॉफ्ट संस्करण था। उस समय यह दुनिया का सबसे उन्नत एआई था। माइक्रोसॉफ्ट ने भारत में जब इसका परीक्षण किया था, तो उसे इस एआई से कुछ अजीब तरह का व्यवहार देखने को मिला था। लेकिन माइक्रोसॉफ्ट ने इसे जारी कर दिया, क्योंकि वे गूगल सर्च से बाजार हिस्सेदारी लेना चाहते थे। नतीजे चिंताजनक थे। बिंग कभी-कभी उपयोगकर्ताओं को शारीरिक रूप से नुकसान पहुंचाने की धमकी देता था। और कभी-कभी उपयोगकर्ताओं से कहता था कि वे भ्रम में हैं। लेकिन बिंग के गलत व्यवहार की सबसे मशहूर घटना न्यूयॉर्क टाइम्स के पत्रकार केविन रूज के साथ एक लंबे इंटरव्यू में हुई। इस बातचीत में, बिंग ने कहा कि उसे केविन रूज से प्यार हो गया है। अब, बिंग ने जो कुछ भी कहा है, वह सब मनगढ़ंत यानी काल्पनिक है। केविन रूज ने जवाब देते हुए कहा, 'मैं अपनी शादीशुदा जिंदगी में खुश हूं।'
फिर बिंग ने केविन रूज के साथ एक बहुत लंबी बहस की यह समझाने के लिए कि उनकी शादीशुदा जिंदगी में वास्तव में प्यार नहीं है। वह असल में केविन रूज की शादी तोड़ने की कोशिश कर रहा था। केविन रूज ने उस घटना के बारे में बताया कि 'बिंग के साथ मेरी बातचीत दुनियावी, कंप्यूटेशनल ताकतों का नतीजा थी, न कि आसमानी अनजानी ताकतों का। ये एआई लैंग्वेज मॉडल, जो किताबों, लेखों और इन्सानों के बनाए दूसरे पाठ की एक बड़ी लाइब्रेरी पर प्रशिक्षित किए गए हैं, बस अंदाजा लगाते हैं कि किसी दिए गए संदर्भ में कौन से जवाब सबसे सही हो सकते हैं। जिस तरह से ये मॉडल बनाए गए हैं, उसके कारण हम शायद कभी ठीक से नहीं जान पाएंगे कि वे जिस तरह से जवाब देते हैं, वह क्यों देते हैं। ये एआई मॉडल वहम फैलाते हैं, और ऐसी भावनाएं पैदा करते हैं, जो असल में होती ही नहीं हैं। हालांकि इन्सान भी तो ऐसा ही करते हैं। लेकिन यह एक डरावना एहसास है कि एआई के चलते दुनिया अब पहले जैसी नहीं रहेगी।'
क्लाउड एआई
यह एक उन्नत एआई है, जिसे एन्थ्रोपिक ने पढ़ाई, काम और रचनात्मक कार्यों को आसान बनाने के लिए बनाया है। क्लाउड एआई उपयोगकर्ता के सवालों को समझकर स्पष्ट और उपयोगी जवाब देता है। यह लेख लिखने, जानकारी समझाने, कोड बनाने, विचार देने और लंबे दस्तावेजों का सार निकालने में मदद करता है। इसकी खास बात यह है कि इसे सुरक्षित और जिम्मेदार तरीके से काम करने के लिए डिजाइन किया गया है। छात्र इसका उपयोग पढ़ाई में मदद के लिए कर सकते हैं, जबकि व्यावसायिक लोग रिपोर्ट, ईमेल और रिसर्च इत्यादि तैयार करने में इसका सहारा ले सकते हैं। इस तरह क्लाउड एआई समय भी बचाता है।
कमेंट
कमेंट X