सब्सक्राइब करें
Hindi News ›   Technology ›   Social Network ›   openai bans goblins mythical creatures pegions racoons from codex ai agent reason

AI: एआई को आखिर 'कबूतर' से क्यों हो गई दिक्कत? कोडिंग टूल में इन शब्दों पर लगाया बैन

टेक डेस्क, अमर उजाला, नई दिल्ली Published by: Nitish Kumar Updated Fri, 01 May 2026 02:17 PM IST
विज्ञापन
सार

OpenAI के नए कोडिंग टूल Codex से अब आप गोब्लिन, कबूतर या रैकून पर बातों की उम्मीद नहीं कर सकते। कंपनी ने अपने AI को काल्पनिक और आम जीवों का जिक्र करने से सख्त मना कर दिया है। आखिर एक कोडिंग टूल को इन जीवों से क्या दिक्कत हो गई? जानिए पूरा मामला।

openai bans goblins mythical creatures pegions racoons from codex ai agent reason
ChatGPT - फोटो : अमर उजाला
विज्ञापन

विस्तार

ओपनएआई (OpenAI) ने अपने नए एआई एजेंट 'कोडेक्स' (Codex) पर एक अजीबोगरीब पाबंदी लगा दी है। अब यह एआई टूल 'गोब्लिन' और दूसरे पौराणिक जीवों के बारे में बात नहीं करेगा। कोडेक्स असल में एंथ्रोपिक (Anthropic) के 'क्लॉड कोड एआई एजेंट' को टक्कर देने के लिए बनाया गया है। यह कमांड-लाइन इंटरफेस (CLI) के जरिए न सिर्फ कोड लिख सकता है, बल्कि उसे रन भी कर सकता है। लेकिन, अपने नए अपडेट के साथ कंपनी ने कोडेक्स के सिस्टम में कुछ बेहद सख्त और अजीब नियम जोड़ दिए हैं।
Trending Videos


कोडेक्स सीएलआई (Codex CLI) में GPT-5.5 के लिए जारी किए गए नए निर्देशों के अनुसार, इस मॉडल को साफ तौर पर हिदायत दी गई है कि वह कभी भी गोब्लिन, ग्रेमलिन, रैकून, ट्रोल, ओग्रे (राक्षस), कबूतर या किसी अन्य जीव-जंतु का जिक्र तब तक नहीं करेगा, जब तक कि यूजर के सवाल में इनकी जरूरत बिल्कुल स्पष्ट न हो। यह पाबंदी लगभग 3,500 शब्दों के एक लंबे निर्देश-पत्र में कई बार दोहराई गई है। इसमें न सिर्फ जीवों का जिक्र मना है, बल्कि सिस्टम को नुकसान पहुंचाने वाले कमांड चलाने और बेवजह इमोजी इस्तेमाल करने पर भी रोक लगाई गई है।
विज्ञापन
विज्ञापन


आखिर 'गोब्लिन' से OpenAI को क्या परेशानी है?
एक कोडिंग टूल में राक्षसों और कबूतरों का जिक्र बैन करने के पीछे का कारण सुनने में जितना अजीब लगता है, असल में उतना ही साधारण है। ओपनएआई ने पाया कि उनके नए मॉडल बिना किसी वजह के बात-बात में इन जीवों का जिक्र करने लगे थे, भले ही यूजर ने कोई बहुत ही गंभीर सवाल क्यों न पूछा हो।

कंपनी ने अपने ब्लॉग पोस्ट में इस राज से पर्दा उठाते हुए बताया कि अनजाने में ऐसी भाषा और उदाहरणों को ज्यादा रिवॉर्ड (अच्छी रेटिंग) दे दिए गए, जिनमें इन जीवों का जिक्र होता था। बस यहीं से एआई ने इस शब्दों का ज्यादा इस्तेमाल करना शुरू कर दिया। आसान भाषा में समझें तो ट्रेनिंग के दौरान एआई को एक बुरी आदत लग गई और समय के साथ यह आदत पक्की होती गई। हालत यह हो गई कि एक अपडेट के बाद तो एआई द्वारा 'गोब्लिन' शब्द का इस्तेमाल 175% तक बढ़ गया था। एआई के एक खास "नर्डी" (Nerdy) मोड ने तो इस समस्या को और बढ़ा दिया था, क्योंकि यह मोड बहुत ही मजाकिया और अजीब उदाहरण देने के लिए जाना जाता है।

समस्या सिर्फ उस एक मोड तक सीमित नहीं रही। एआई की ट्रेनिंग के तरीके के कारण यह अजीब बर्ताव उसके सामान्य जवाबों में भी आ गया। ओपनएआई ने इसे एक 'फीडबैक लूप' बताया। यानी जब एक बार एआई को किसी गलत बात के लिए शाबाशी मिल गई, तो वह उसे बार-बार दोहराने लगा।

कोडेक्स यूजर्स के लिए इसके क्या मायने हैं?
आम लोगों को यह सुनकर भले ही हंसी आए, लेकिन जो लोग गंभीर कोडिंग या प्रोफेशनल काम के लिए एआई का इस्तेमाल कर रहे हों, उनके लिए बीच-बीच में 'गोब्लिन' या 'कबूतर' का जिक्र आना बहुत ध्यान भटकाने वाला हो सकता है। इसी समस्या को सुलझाने के लिए कोडेक्स में अब भाषा और काम करने के तरीके को लेकर सख्त निर्देश जोड़े गए हैं।

उदाहरण के लिए, एआई को अब सख्त हिदायत है कि वह कोई भी खतरनाक कमांड न चलाए, जैसे कि फाइल डिलीट करना, जब तक कि यूजर खुद ऐसा करने को न कहे। कंपनी का मकसद एआई को ज्यादा भरोसेमंद और सुरक्षित बनाना है।

इंटरनेट पर मीम बना "गोब्लिन मोड"
दिलचस्प बात यह है कि यह पूरी घटना इंटरनेट पर एक मीम बन चुकी है। कुछ यूजर्स ने बताया कि एआई उनके सॉफ्टवेयर के बग्स (खामियों) को "ग्रेमलिन" बुला रहा था, तो कुछ लोग कोडिंग टूल्स में "गोब्लिन मोड" का मजाक उड़ाने लगे।

ओपनएआई ने अब इस समस्या की जड़ को खत्म कर दिया है। उन्होंने उन ट्रेनिंग सिग्नल्स को हटा दिया है जो एआई को ऐसी भाषा इस्तेमाल करने के लिए उकसाते थे और ऐसे बेकार शब्दों को फिल्टर करना भी शुरू कर दिया है। हालांकि, चूंकि GPT-5.5 पर पहले से ही काम चल रहा था, इसलिए एहतियात के तौर पर ये अतिरिक्त नियम जोड़े गए हैं।

कंपनी का कहना है कि यह घटना इस बात का बड़ा सुबूत है कि ट्रेनिंग के दौरान लिए गए छोटे-छोटे फैसले भी कितने अप्रत्याशित परिणाम दे सकते हैं। ओपनएआई ने कहा, "यह 'गोब्लिन' वाला मामला एक बेहतरीन उदाहरण है कि कैसे एक रिवॉर्ड सिग्नल मॉडल के बर्ताव को इस तरह बदल सकता है जिसकी हमने कभी उम्मीद भी नहीं की थी।" कुल मिलाकर, एआई टूल रोजमर्रा के कामों में भले ही स्मार्ट हो रहे हों, लेकिन कभी-कभी उन्हें यह समझाना भी जरूरी हो जाता है कि काम के बीच में राक्षसों और कबूतरों की बातें नहीं करनी चाहिए।

विज्ञापन
विज्ञापन

रहें हर खबर से अपडेट, डाउनलोड करें Android Hindi News App, iOS Hindi News App और Amarujala Hindi News App अपने मोबाइल पे|
Get all Tech News in Hindi related to live news update of latest gadgets News apps, tablets etc. Stay updated with us for all breaking news from Tech and more Hindi News.

विज्ञापन
विज्ञापन
विज्ञापन

एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें

Next Article

एप में पढ़ें

Followed