{"_id":"69f4688a5b5c5cd9770b2e3e","slug":"openai-bans-goblins-mythical-creatures-pegions-racoons-from-codex-ai-agent-reason-2026-05-01","type":"feature-story","status":"publish","title_hn":"AI: एआई को आखिर 'कबूतर' से क्यों हो गई दिक्कत? कोडिंग टूल में इन शब्दों पर लगाया बैन","category":{"title":"Social Network","title_hn":"सोशल नेटवर्क","slug":"social-network"}}
AI: एआई को आखिर 'कबूतर' से क्यों हो गई दिक्कत? कोडिंग टूल में इन शब्दों पर लगाया बैन
टेक डेस्क, अमर उजाला, नई दिल्ली
Published by: Nitish Kumar
Updated Fri, 01 May 2026 02:17 PM IST
विज्ञापन
सार
OpenAI के नए कोडिंग टूल Codex से अब आप गोब्लिन, कबूतर या रैकून पर बातों की उम्मीद नहीं कर सकते। कंपनी ने अपने AI को काल्पनिक और आम जीवों का जिक्र करने से सख्त मना कर दिया है। आखिर एक कोडिंग टूल को इन जीवों से क्या दिक्कत हो गई? जानिए पूरा मामला।
ChatGPT
- फोटो : अमर उजाला
विज्ञापन
विस्तार
ओपनएआई (OpenAI) ने अपने नए एआई एजेंट 'कोडेक्स' (Codex) पर एक अजीबोगरीब पाबंदी लगा दी है। अब यह एआई टूल 'गोब्लिन' और दूसरे पौराणिक जीवों के बारे में बात नहीं करेगा। कोडेक्स असल में एंथ्रोपिक (Anthropic) के 'क्लॉड कोड एआई एजेंट' को टक्कर देने के लिए बनाया गया है। यह कमांड-लाइन इंटरफेस (CLI) के जरिए न सिर्फ कोड लिख सकता है, बल्कि उसे रन भी कर सकता है। लेकिन, अपने नए अपडेट के साथ कंपनी ने कोडेक्स के सिस्टम में कुछ बेहद सख्त और अजीब नियम जोड़ दिए हैं।
कोडेक्स सीएलआई (Codex CLI) में GPT-5.5 के लिए जारी किए गए नए निर्देशों के अनुसार, इस मॉडल को साफ तौर पर हिदायत दी गई है कि वह कभी भी गोब्लिन, ग्रेमलिन, रैकून, ट्रोल, ओग्रे (राक्षस), कबूतर या किसी अन्य जीव-जंतु का जिक्र तब तक नहीं करेगा, जब तक कि यूजर के सवाल में इनकी जरूरत बिल्कुल स्पष्ट न हो। यह पाबंदी लगभग 3,500 शब्दों के एक लंबे निर्देश-पत्र में कई बार दोहराई गई है। इसमें न सिर्फ जीवों का जिक्र मना है, बल्कि सिस्टम को नुकसान पहुंचाने वाले कमांड चलाने और बेवजह इमोजी इस्तेमाल करने पर भी रोक लगाई गई है।
आखिर 'गोब्लिन' से OpenAI को क्या परेशानी है?
एक कोडिंग टूल में राक्षसों और कबूतरों का जिक्र बैन करने के पीछे का कारण सुनने में जितना अजीब लगता है, असल में उतना ही साधारण है। ओपनएआई ने पाया कि उनके नए मॉडल बिना किसी वजह के बात-बात में इन जीवों का जिक्र करने लगे थे, भले ही यूजर ने कोई बहुत ही गंभीर सवाल क्यों न पूछा हो।
कंपनी ने अपने ब्लॉग पोस्ट में इस राज से पर्दा उठाते हुए बताया कि अनजाने में ऐसी भाषा और उदाहरणों को ज्यादा रिवॉर्ड (अच्छी रेटिंग) दे दिए गए, जिनमें इन जीवों का जिक्र होता था। बस यहीं से एआई ने इस शब्दों का ज्यादा इस्तेमाल करना शुरू कर दिया। आसान भाषा में समझें तो ट्रेनिंग के दौरान एआई को एक बुरी आदत लग गई और समय के साथ यह आदत पक्की होती गई। हालत यह हो गई कि एक अपडेट के बाद तो एआई द्वारा 'गोब्लिन' शब्द का इस्तेमाल 175% तक बढ़ गया था। एआई के एक खास "नर्डी" (Nerdy) मोड ने तो इस समस्या को और बढ़ा दिया था, क्योंकि यह मोड बहुत ही मजाकिया और अजीब उदाहरण देने के लिए जाना जाता है।
समस्या सिर्फ उस एक मोड तक सीमित नहीं रही। एआई की ट्रेनिंग के तरीके के कारण यह अजीब बर्ताव उसके सामान्य जवाबों में भी आ गया। ओपनएआई ने इसे एक 'फीडबैक लूप' बताया। यानी जब एक बार एआई को किसी गलत बात के लिए शाबाशी मिल गई, तो वह उसे बार-बार दोहराने लगा।
कोडेक्स यूजर्स के लिए इसके क्या मायने हैं?
आम लोगों को यह सुनकर भले ही हंसी आए, लेकिन जो लोग गंभीर कोडिंग या प्रोफेशनल काम के लिए एआई का इस्तेमाल कर रहे हों, उनके लिए बीच-बीच में 'गोब्लिन' या 'कबूतर' का जिक्र आना बहुत ध्यान भटकाने वाला हो सकता है। इसी समस्या को सुलझाने के लिए कोडेक्स में अब भाषा और काम करने के तरीके को लेकर सख्त निर्देश जोड़े गए हैं।
उदाहरण के लिए, एआई को अब सख्त हिदायत है कि वह कोई भी खतरनाक कमांड न चलाए, जैसे कि फाइल डिलीट करना, जब तक कि यूजर खुद ऐसा करने को न कहे। कंपनी का मकसद एआई को ज्यादा भरोसेमंद और सुरक्षित बनाना है।
इंटरनेट पर मीम बना "गोब्लिन मोड"
दिलचस्प बात यह है कि यह पूरी घटना इंटरनेट पर एक मीम बन चुकी है। कुछ यूजर्स ने बताया कि एआई उनके सॉफ्टवेयर के बग्स (खामियों) को "ग्रेमलिन" बुला रहा था, तो कुछ लोग कोडिंग टूल्स में "गोब्लिन मोड" का मजाक उड़ाने लगे।
ओपनएआई ने अब इस समस्या की जड़ को खत्म कर दिया है। उन्होंने उन ट्रेनिंग सिग्नल्स को हटा दिया है जो एआई को ऐसी भाषा इस्तेमाल करने के लिए उकसाते थे और ऐसे बेकार शब्दों को फिल्टर करना भी शुरू कर दिया है। हालांकि, चूंकि GPT-5.5 पर पहले से ही काम चल रहा था, इसलिए एहतियात के तौर पर ये अतिरिक्त नियम जोड़े गए हैं।
कंपनी का कहना है कि यह घटना इस बात का बड़ा सुबूत है कि ट्रेनिंग के दौरान लिए गए छोटे-छोटे फैसले भी कितने अप्रत्याशित परिणाम दे सकते हैं। ओपनएआई ने कहा, "यह 'गोब्लिन' वाला मामला एक बेहतरीन उदाहरण है कि कैसे एक रिवॉर्ड सिग्नल मॉडल के बर्ताव को इस तरह बदल सकता है जिसकी हमने कभी उम्मीद भी नहीं की थी।" कुल मिलाकर, एआई टूल रोजमर्रा के कामों में भले ही स्मार्ट हो रहे हों, लेकिन कभी-कभी उन्हें यह समझाना भी जरूरी हो जाता है कि काम के बीच में राक्षसों और कबूतरों की बातें नहीं करनी चाहिए।
Trending Videos
कोडेक्स सीएलआई (Codex CLI) में GPT-5.5 के लिए जारी किए गए नए निर्देशों के अनुसार, इस मॉडल को साफ तौर पर हिदायत दी गई है कि वह कभी भी गोब्लिन, ग्रेमलिन, रैकून, ट्रोल, ओग्रे (राक्षस), कबूतर या किसी अन्य जीव-जंतु का जिक्र तब तक नहीं करेगा, जब तक कि यूजर के सवाल में इनकी जरूरत बिल्कुल स्पष्ट न हो। यह पाबंदी लगभग 3,500 शब्दों के एक लंबे निर्देश-पत्र में कई बार दोहराई गई है। इसमें न सिर्फ जीवों का जिक्र मना है, बल्कि सिस्टम को नुकसान पहुंचाने वाले कमांड चलाने और बेवजह इमोजी इस्तेमाल करने पर भी रोक लगाई गई है।
विज्ञापन
विज्ञापन
आखिर 'गोब्लिन' से OpenAI को क्या परेशानी है?
एक कोडिंग टूल में राक्षसों और कबूतरों का जिक्र बैन करने के पीछे का कारण सुनने में जितना अजीब लगता है, असल में उतना ही साधारण है। ओपनएआई ने पाया कि उनके नए मॉडल बिना किसी वजह के बात-बात में इन जीवों का जिक्र करने लगे थे, भले ही यूजर ने कोई बहुत ही गंभीर सवाल क्यों न पूछा हो।
कंपनी ने अपने ब्लॉग पोस्ट में इस राज से पर्दा उठाते हुए बताया कि अनजाने में ऐसी भाषा और उदाहरणों को ज्यादा रिवॉर्ड (अच्छी रेटिंग) दे दिए गए, जिनमें इन जीवों का जिक्र होता था। बस यहीं से एआई ने इस शब्दों का ज्यादा इस्तेमाल करना शुरू कर दिया। आसान भाषा में समझें तो ट्रेनिंग के दौरान एआई को एक बुरी आदत लग गई और समय के साथ यह आदत पक्की होती गई। हालत यह हो गई कि एक अपडेट के बाद तो एआई द्वारा 'गोब्लिन' शब्द का इस्तेमाल 175% तक बढ़ गया था। एआई के एक खास "नर्डी" (Nerdy) मोड ने तो इस समस्या को और बढ़ा दिया था, क्योंकि यह मोड बहुत ही मजाकिया और अजीब उदाहरण देने के लिए जाना जाता है।
समस्या सिर्फ उस एक मोड तक सीमित नहीं रही। एआई की ट्रेनिंग के तरीके के कारण यह अजीब बर्ताव उसके सामान्य जवाबों में भी आ गया। ओपनएआई ने इसे एक 'फीडबैक लूप' बताया। यानी जब एक बार एआई को किसी गलत बात के लिए शाबाशी मिल गई, तो वह उसे बार-बार दोहराने लगा।
कोडेक्स यूजर्स के लिए इसके क्या मायने हैं?
आम लोगों को यह सुनकर भले ही हंसी आए, लेकिन जो लोग गंभीर कोडिंग या प्रोफेशनल काम के लिए एआई का इस्तेमाल कर रहे हों, उनके लिए बीच-बीच में 'गोब्लिन' या 'कबूतर' का जिक्र आना बहुत ध्यान भटकाने वाला हो सकता है। इसी समस्या को सुलझाने के लिए कोडेक्स में अब भाषा और काम करने के तरीके को लेकर सख्त निर्देश जोड़े गए हैं।
उदाहरण के लिए, एआई को अब सख्त हिदायत है कि वह कोई भी खतरनाक कमांड न चलाए, जैसे कि फाइल डिलीट करना, जब तक कि यूजर खुद ऐसा करने को न कहे। कंपनी का मकसद एआई को ज्यादा भरोसेमंद और सुरक्षित बनाना है।
इंटरनेट पर मीम बना "गोब्लिन मोड"
दिलचस्प बात यह है कि यह पूरी घटना इंटरनेट पर एक मीम बन चुकी है। कुछ यूजर्स ने बताया कि एआई उनके सॉफ्टवेयर के बग्स (खामियों) को "ग्रेमलिन" बुला रहा था, तो कुछ लोग कोडिंग टूल्स में "गोब्लिन मोड" का मजाक उड़ाने लगे।
ओपनएआई ने अब इस समस्या की जड़ को खत्म कर दिया है। उन्होंने उन ट्रेनिंग सिग्नल्स को हटा दिया है जो एआई को ऐसी भाषा इस्तेमाल करने के लिए उकसाते थे और ऐसे बेकार शब्दों को फिल्टर करना भी शुरू कर दिया है। हालांकि, चूंकि GPT-5.5 पर पहले से ही काम चल रहा था, इसलिए एहतियात के तौर पर ये अतिरिक्त नियम जोड़े गए हैं।
कंपनी का कहना है कि यह घटना इस बात का बड़ा सुबूत है कि ट्रेनिंग के दौरान लिए गए छोटे-छोटे फैसले भी कितने अप्रत्याशित परिणाम दे सकते हैं। ओपनएआई ने कहा, "यह 'गोब्लिन' वाला मामला एक बेहतरीन उदाहरण है कि कैसे एक रिवॉर्ड सिग्नल मॉडल के बर्ताव को इस तरह बदल सकता है जिसकी हमने कभी उम्मीद भी नहीं की थी।" कुल मिलाकर, एआई टूल रोजमर्रा के कामों में भले ही स्मार्ट हो रहे हों, लेकिन कभी-कभी उन्हें यह समझाना भी जरूरी हो जाता है कि काम के बीच में राक्षसों और कबूतरों की बातें नहीं करनी चाहिए।
विज्ञापन
रहें हर खबर से अपडेट, डाउनलोड करें Android Hindi News App, iOS Hindi News App और Amarujala Hindi News App अपने मोबाइल पे|
Get all Tech News in Hindi related to live news update of latest gadgets News apps, tablets etc. Stay updated with us for all breaking news from Tech and more Hindi News.
विज्ञापन
विज्ञापन
विज्ञापन
