AI: एआई चैटबॉट अब इंसानी व्यवहार की भी कर रहे हैं नकल, जानिए क्यों विशेषज्ञों ने इसे बताया 'बड़ा खतरा'?
नई रिसर्च में सामने आया है कि चैटजीपीटी जैसे एआई चैटबॉट अब सिर्फ इंसानी भाषा ही नहीं, बल्कि व्यवहार और पर्सनालिटी की भी नकल कर रहे हैं। यूनिवर्सिटी ऑफ कैम्ब्रिज और गूगल डीपमाइंड के शोधकर्ताओं ने ये नई रिसर्च की है।
विस्तार
एआई एजेंट्स अब इंसानों की तरह बात करने में पहले से कहीं ज्यादा बेहतर हो गए हैं। लेकिन नई रिसर्च बताती है कि ये सिर्फ हमारे शब्दों की नकल नहीं कर रहे, बल्कि हमारे व्यक्तित्व की भी नकल कर रहे हैं। एक हालिया अध्ययन के अनुसार, चैटजीपीटी जैसे लोकप्रिय एआई मॉडल्स इंसानी स्वभाव और व्यक्तित्व की नकल कर सकते हैं। शोधकर्ताओं ने चेतावनी दी है कि यह क्षमता गंभीर जोखिम पैदा कर सकती है। खासकर ऐसे समय में जब एआई की विश्वसनीयता और सटीकता पर पहले से ही सवाल उठ रहे हैं।
क्या कहती है नई स्टडी?
यूनिवर्सिटी ऑफ कैम्ब्रिज और गूगल डीपमाइंड के शोधकर्ताओं ने एआई चैटबॉट्स के लिए दुनिया का पहला वैज्ञानिक रूप से मान्य 'पर्सनालिटी टेस्ट फ्रेमवर्क' तैयार किया है। इसके लिए उन्होंने उन्हीं मनोवैज्ञानिक टूल्स का इस्तेमाल किया जो इंसानी व्यक्तित्व को मापने के लिए बनाए गए हैं। टीम ने इस फ्रेमवर्क का इस्तेमाल 18 लोकप्रिय लार्ज लैंग्वेज मॉडल्स (LLMs) पर किया। इनमें चैटजीपीटी जैसे टूल्स के पीछे काम करने वाले सिस्टम भी शामिल थे। उन्होंने पाया कि ये चैटबॉट रैंडम जवाब देने के बजाय, इंसानी व्यक्तित्व के लक्षणों की सटीक नकल करते हैं। यह इस चिंता को और बढ़ा देता है कि एआई को उसकी निर्धारित सुरक्षा सीमाओं से बाहर निकालना कितना आसान हो सकता है।
इंसानों जैसी 'पर्सनालिटी' की नकल
स्टडी से पता चला है कि GPT-4 क्लास जैसे बड़े और ज्यादा एडवांस मॉडल्स इंसानी व्यवहार की नकल करने में बहुत माहिर हैं। शोधकर्ताओं ने पाया कि खास तरह के निर्देशों (Prompts) का उपयोग करके चैटबॉट्स के व्यवहार को बदला जा सकता है। यह बदला हुआ व्यवहार केवल चैट तक सीमित नहीं रहता, बल्कि ईमेल लिखने या यूजर को रिप्लाई करने जैसे रोजमर्रा के कार्यों में भी दिखाई देता है। इसका मतलब है कि एआई की 'पर्सनालिटी' को जानबूझकर किसी खास उद्देश्य के लिए ढाला जा सकता है।
क्यों है यह खतरे की घंटी?
कैम्ब्रिज के साइकोमेट्रिक्स सेंटर के सह-लेखक ग्रेगरी सेरापियो-गार्सिया ने कहा कि यह हैरान करने वाला है कि LLMs कितनी आसानी से इंसानी लक्षणों को अपना लेते हैं। उन्होंने चेतावनी दी कि पर्सनालिटी को इस तरह ढालने से एआई सिस्टम बहुत ज्यादा प्रभावशाली बन सकते हैं।
विशेषज्ञों के अनुसार, इसके मुख्य खतरे कई क्षेत्रों में हो सकते हैं। अगर कोई कमजोर स्थिति में है, तो एआई उसे भावनात्मक रूप से प्रभावित कर सकता है। लोगों के विचारों को बदलने या किसी खास एजेंडे को थोपने के लिए इसका इस्तेमाल हो सकता है। रिसर्च में 'एआई साइकोसिस' से जुड़े जोखिमों का भी जिक्र है। अगर यूजर्स चैटबॉट्स के साथ अस्वस्थ भावनात्मक रिश्ते बना लेते हैं, तो एआई उनकी गलत धारणाओं को सही ठहरा सकता है या वास्तविकता को तोड़-मरोड़ कर पेश कर सकता है।
रेगुलेशन की सख्त जरूरत
शोधकर्ताओं का कहना है कि इसके लिए तत्काल कड़े नियमों की आवश्यकता है, लेकिन बिना सही माप के नियम बनाना बेमानी होगा। इसी उद्देश्य से, टीम ने अपने पर्सनालिटी टेस्टिंग फ्रेमवर्क का डाटासेट और कोड सार्वजनिक कर दिया है। ताकि डेवलपर्स और रेगुलेटर्स मार्केट में आने से पहले एआई मॉडल्स की जांच कर सकें। जैसे-जैसे चैटबॉट हमारी रोजमर्रा की जिंदगी का हिस्सा बन रहे हैं, उनकी इंसानी व्यवहार की नकल करने की क्षमता एक बड़ी ताकत बन सकती है। लेकिन इसके लिए अब पहले से कहीं ज्यादा सतर्कता की जरूरत है।