सब्सक्राइब करें
Hindi News ›   Technology ›   Tech Diary ›   bill gates warns ai bioterrorism-threat-biological-weapons

Bill Gates Warning: क्या एआई बनेगा बायोटेररिज्म का हथियार? बिल गेट्स ने दी विनाशकारी जैविक हमले की चेतावनी

टेक डेस्क, अमर उजाला, नई दिल्ली Published by: जागृति Updated Sat, 10 Jan 2026 07:32 PM IST
विज्ञापन
सार

Bill Gates AI Warning: माइक्रोसॉफ्ट के सह-संस्थापक बिल गेट्स ने एआई को लेकर एक बेहद डरावनी संभावना जाहिर की है। इनका मानना है कि जहां एक तरफ एआई कैंसर जैसी बीमारियों का इलाज ढूंढने में मदद कर रहा है। वहीं, दूसरी तरफ ये बायोटेररिज्म (जैविक आतंकवाद) का सबसे घातक जरिया भी बन सकता है। जानें पूरा मामला..
 

bill gates warns ai bioterrorism-threat-biological-weapons
बिल गेट्स - फोटो : ANI
विज्ञापन

विस्तार
Follow Us

माइक्रोसॉफ्ट के सह-संस्थापक बिल गेट्स ने चेताया है कि आर्टिफिशियल इंटेलिजेंस (AI) का गलत इस्तेमाल भविष्य में बायोटेररिज्म को आसान बना सकता है। उनका कहना है कि अगर समय रहते सख्त नियम नहीं बनाए गए, तो एआई की मदद से खतरनाक जैविक हथियार डिजाइन करना छोटे समूहों के लिए भी संभव हो सकता है।
Trending Videos

क्यों डरे हुए हैं बिल गेट्स?

एक हालिया इंटरव्यू में गेट्स ने स्पष्ट किया कि पहले खतरनाक वायरस या बैक्टीरिया बनाने के लिए करोड़ों डॉलर का बजट, बड़ी प्रयोगशालाएं और दर्जनों वैज्ञानिकों की जरूरत होती थी, लेकिन एआई के बाद ये काफी आसान हो चुका है। एआई ने इस पूरी प्रक्रिया को लोकतांत्रिक बना दिया है। यानी अब बहुत कम संसाधनों वाला एक छोटा सा ग्रुप या सनकी व्यक्ति भी एआई की मदद से खतरनाक वायरस डिजाइन कर सकता है। 
विज्ञापन
विज्ञापन


ये भी पढ़े: AI Voice Cloning: न भाई न दोस्त, AI से चुराई आवाज और1 लाख रुपये साफ; जानें कैसे काम करता है ये आवाज का जाल

किस प्रकार है खतरनाक?

गेट्स के अनुसार, एआई अब इतना स्मार्ट हो चुका है कि वह लाखों वैज्ञानिकों रिसर्च पेपर्स को मिनटों में पढ़ सकता है। जटिल जेनेटिक सीक्वेंस को समझकर उनमें बदलाव कर सकता है। साथ ही ऐसे वायरस का ब्लूप्रिंट तैयार कर सकता है जो हवा से फैले और वर्तमान दवाओं के प्रति प्रतिरोधी हो। कहा कि एआई अब जेनेटिक्स और केमिर्स्टी में विशेषज्ञों जैसा ज्ञान रखता है, जिससे कोई भी नौसिखिया खतरनाक प्रयोग कर सकता है। इंटरनेट पर मौजूद खुले AI मॉडल्स पर लगाम लगाना मुश्किल है, जिसका फायदा अपराधी उठा सकते हैं। समस्या की बात ये भी है कि वर्तमान में एआई कंपनियों के पास ऐसे मजबूत फिल्टर्स नहीं हैं जो बायोलॉजिकल हथियारों से जुड़ी जानकारी को रोक सकें।

खतरे से बचने के लिए क्या करें?

बिल गेट्स का कहना है कि AI सिस्टम्स को ऐसी जैविक या वैज्ञानिक जानकारी देने से रोका जाना चाहिए, जिसका गलत इस्तेमाल किया जा सकता है। अगर एआई को बिना नियंत्रण के हर तरह की रिसर्च, डेटा या तकनीकी जानकारी तक पहुंच दी गई, तो इसका दुरुपयोग संभव है। इसलिए जरूरी है कि AI मॉडल्स में पहले से ही ऐसे सुरक्षा फिल्टर हों, जो खतरनाक सवालों या अनुरोधों को पहचानकर जवाब देने से मना कर दें।

कंपनियों और सरकारों के बीच सहयोग

गेट्स का कहना है कि इस चुनौती से निपटने के लिए सरकारें और एआई कंपनियां एक-दूसरे के साथ मिलकर काम करें। सरकारें नियम और कानून बनाएं, जबकि कंपनियां अपनी तकनीक को सुरक्षित और जिम्मेदार तरीके से विकसित करें। 

खतरों की पहचान के लिए रेड टीमिंग और सुरक्षा टेस्ट

रेड टीमिंग का मतलब है एआई  सिस्टम्स को जानबूझकर कठिन और खतरनाक परिस्थितियों में टेस्ट करना, ताकि यह समझा जा सके कि उनका गलत इस्तेमाल कैसे हो सकता है। बिल गेट्स मानते हैं कि किसी भी एआई तकनीक को बड़े पैमाने पर लॉन्च करने से पहले ऐसे सुरक्षा टेस्ट जरूरी हैं, जिससे कमजोरियों को समय रहते ठीक किया जा सके।

फायदे भी हैं, लेकिन लापरवाही नहीं

बिल गेट्स यह भी कहते हैं कि एआई के फायदे बेहद बड़े हैं। इसकी मदद से नई दवाएं खोजी जा सकती हैं और बीमारियों का इलाज पहले से ज्यादा तेज और सटीक हो सकता है। इससे मेडिकल रिसर्च को नई दिशा मिल सकती है। इस तकनीक से हेल्थकेयर सिस्टम को बेहतर बनाया जा सकता है, खासकर उन इलाकों में जहां डॉक्टरों और संसाधनों की कमी है। हालांकि गेट्स चेतावनी देते हैं कि अगर सुरक्षा और जिम्मेदारी को नजरअंदाज किया गया, तो यही तकनीक गंभीर खतरे भी पैदा कर सकती है।
विज्ञापन
विज्ञापन

रहें हर खबर से अपडेट, डाउनलोड करें Android Hindi News App, iOS Hindi News App और Amarujala Hindi News App अपने मोबाइल पे|
Get all Tech News in Hindi related to live news update of latest mobile reviews apps, tablets etc. Stay updated with us for all breaking news from Tech and more Hindi News.

विज्ञापन
विज्ञापन

एड फ्री अनुभव के लिए अमर उजाला प्रीमियम सब्सक्राइब करें

Next Article

Election
एप में पढ़ें

Followed