सब्सक्राइब करें
Hindi News ›   Technology ›   AI Chatbots Like ChatGPT Are Imitating Human Personality, Experts Warn of Serious Risks

AI: एआई चैटबॉट अब इंसानी व्यवहार की भी कर रहे हैं नकल, जानिए क्यों विशेषज्ञों ने इसे बताया 'बड़ा खतरा'?

टेक डेस्क, अमर उजाला, नई दिल्ली Published by: सुयश पांडेय Updated Fri, 19 Dec 2025 10:10 AM IST
सार

नई रिसर्च में सामने आया है कि चैटजीपीटी जैसे एआई चैटबॉट अब सिर्फ इंसानी भाषा ही नहीं, बल्कि व्यवहार और पर्सनालिटी की भी नकल कर रहे हैं। यूनिवर्सिटी ऑफ कैम्ब्रिज और गूगल डीपमाइंड के शोधकर्ताओं ने ये नई रिसर्च की है।

विज्ञापन
AI Chatbots Like ChatGPT Are Imitating Human Personality, Experts Warn of Serious Risks
LLMs न सिर्फ हमारे शब्दों की नकल नहीं कर रहे, बल्कि हमारे व्यक्तित्व की भी नकल कर रहे हैं। (सांकेतिक तस्वीर) - फोटो : AI
विज्ञापन

विस्तार
Follow Us

Trending Videos

एआई एजेंट्स अब इंसानों की तरह बात करने में पहले से कहीं ज्यादा बेहतर हो गए हैं। लेकिन नई रिसर्च बताती है कि ये सिर्फ हमारे शब्दों की नकल नहीं कर रहे, बल्कि हमारे व्यक्तित्व की भी नकल कर रहे हैं। एक हालिया अध्ययन के अनुसार, चैटजीपीटी जैसे लोकप्रिय एआई मॉडल्स इंसानी स्वभाव और व्यक्तित्व की नकल कर सकते हैं। शोधकर्ताओं ने चेतावनी दी है कि यह क्षमता गंभीर जोखिम पैदा कर सकती है। खासकर ऐसे समय में जब एआई की विश्वसनीयता और सटीकता पर पहले से ही सवाल उठ रहे हैं।

क्या कहती है नई स्टडी?

यूनिवर्सिटी ऑफ कैम्ब्रिज और गूगल डीपमाइंड के शोधकर्ताओं ने एआई चैटबॉट्स के लिए दुनिया का पहला वैज्ञानिक रूप से मान्य 'पर्सनालिटी टेस्ट फ्रेमवर्क' तैयार किया है। इसके लिए उन्होंने उन्हीं मनोवैज्ञानिक टूल्स का इस्तेमाल किया जो इंसानी व्यक्तित्व को मापने के लिए बनाए गए हैं। टीम ने इस फ्रेमवर्क का इस्तेमाल 18 लोकप्रिय लार्ज लैंग्वेज मॉडल्स (LLMs) पर किया। इनमें चैटजीपीटी जैसे टूल्स के पीछे काम करने वाले सिस्टम भी शामिल थे। उन्होंने पाया कि ये चैटबॉट रैंडम जवाब देने के बजाय, इंसानी व्यक्तित्व के लक्षणों की सटीक नकल करते हैं। यह इस चिंता को और बढ़ा देता है कि एआई को उसकी निर्धारित सुरक्षा सीमाओं से बाहर निकालना कितना आसान हो सकता है।

विज्ञापन
विज्ञापन

इंसानों जैसी 'पर्सनालिटी' की नकल

स्टडी से पता चला है कि GPT-4 क्लास जैसे बड़े और ज्यादा एडवांस मॉडल्स इंसानी व्यवहार की नकल करने में बहुत माहिर हैं। शोधकर्ताओं ने पाया कि खास तरह के निर्देशों (Prompts) का उपयोग करके चैटबॉट्स के व्यवहार को बदला जा सकता है। यह बदला हुआ व्यवहार केवल चैट तक सीमित नहीं रहता, बल्कि ईमेल लिखने या यूजर को रिप्लाई करने जैसे रोजमर्रा के कार्यों में भी दिखाई देता है। इसका मतलब है कि एआई की 'पर्सनालिटी' को जानबूझकर किसी खास उद्देश्य के लिए ढाला जा सकता है।

क्यों है यह खतरे की घंटी?

कैम्ब्रिज के साइकोमेट्रिक्स सेंटर के सह-लेखक ग्रेगरी सेरापियो-गार्सिया ने कहा कि यह हैरान करने वाला है कि LLMs कितनी आसानी से इंसानी लक्षणों को अपना लेते हैं। उन्होंने चेतावनी दी कि पर्सनालिटी को इस तरह ढालने से एआई सिस्टम बहुत ज्यादा प्रभावशाली बन सकते हैं।


विशेषज्ञों के अनुसार, इसके मुख्य खतरे कई क्षेत्रों में हो सकते हैं। अगर कोई कमजोर स्थिति में है, तो एआई उसे भावनात्मक रूप से प्रभावित कर सकता है। लोगों के विचारों को बदलने या किसी खास एजेंडे को थोपने के लिए इसका इस्तेमाल हो सकता है। रिसर्च में 'एआई साइकोसिस' से जुड़े जोखिमों का भी जिक्र है। अगर यूजर्स चैटबॉट्स के साथ अस्वस्थ भावनात्मक रिश्ते बना लेते हैं, तो एआई उनकी गलत धारणाओं को सही ठहरा सकता है या वास्तविकता को तोड़-मरोड़ कर पेश कर सकता है।

रेगुलेशन की सख्त जरूरत

शोधकर्ताओं का कहना है कि इसके लिए तत्काल कड़े नियमों की आवश्यकता है, लेकिन बिना सही माप के नियम बनाना बेमानी होगा। इसी उद्देश्य से, टीम ने अपने पर्सनालिटी टेस्टिंग फ्रेमवर्क का डाटासेट और कोड सार्वजनिक कर दिया है। ताकि डेवलपर्स और रेगुलेटर्स मार्केट में आने से पहले एआई मॉडल्स की जांच कर सकें। जैसे-जैसे चैटबॉट हमारी रोजमर्रा की जिंदगी का हिस्सा बन रहे हैं, उनकी इंसानी व्यवहार की नकल करने की क्षमता एक बड़ी ताकत बन सकती है। लेकिन इसके लिए अब पहले से कहीं ज्यादा सतर्कता की जरूरत है।

विज्ञापन
विज्ञापन

रहें हर खबर से अपडेट, डाउनलोड करें Android Hindi News App, iOS Hindi News App और Amarujala Hindi News APP अपने मोबाइल पे|
Get all Tech News in Hindi related to live news update of latest gadget news and mobile reviews, apps, tablets etc. Stay updated with us for all breaking news in hindi from Tech and more Hindi News.

विज्ञापन
विज्ञापन

एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें

Next Article

Election
एप में पढ़ें

Followed