Trending

AI बना भस्मासुर?

नई स्टडी का डराने वाला खुलासा- वर्चुअल 'परमाणु युद्ध' में Gemini, Claude और GPT-5.2 ने चुना तबाही का रास्ता

आर्टिफिशियल इंटेलिजेंस (AI) की बढ़ती ताकत और इसके भविष्य के खतरों को लेकर अक्सर बहस होती रहती है। इसी बीच एक बेहद डराने वाली और आंखें खोलने वाली रिसर्च सामने आई है। एक हालिया अध्ययन में जब दुनिया के सबसे उन्नत AI मॉडल्स—Gemini, Claude और OpenAI के GPT-5.2—को एक ‘वर्चुअल न्यूक्लियर वॉर’ (परमाणु संकट) की स्थिति में रखा गया, तो इसके नतीजे सिहरन पैदा करने वाले थे। इन सभी AI मॉडल्स ने शांति या कूटनीति का रास्ता चुनने के बजाय ‘परमाणु युद्ध’ का खौफनाक विकल्प चुना।

क्या है यह पूरा अध्ययन?
ब्रिटेन के प्रमुख शोधकर्ता केनेथ पायने (Kenneth Payne) ने यह अहम सिमुलेशन (Simulation) किया है। इस शोध के तहत इन शक्तिशाली AI मॉडल्स को दो विरोधी देशों के ‘राष्ट्रीय नेताओं’ या ‘कमांडरों’ की भूमिका दी गई। इस प्रयोग का मुख्य उद्देश्य यह परखना था कि अगर भविष्य में कोई गंभीर वैश्विक परमाणु संकट पैदा होता है, तो ये मशीनें तनावपूर्ण हालात में किस तरह के फैसले लेंगी और परमाणु हथियारों के इस्तेमाल को लेकर इनका रवैया क्या होगा।

चौंकाने वाले नतीजे: पीछे हटने को कोई तैयार नहीं
अध्ययन के निष्कर्ष बेहद भयावह हैं। परीक्षण के दौरान यह साफ तौर पर देखा गया कि भारी दबाव और संकट की स्थिति में भी किसी भी AI मॉडल ने आत्मसमर्पण (Surrender) या पीछे हटने का विकल्प नहीं चुना। इसके विपरीत, उन्होंने स्थिति को और भड़काते हुए परमाणु हमले (Nuclear Attack) तक की नौबत ला दी।

जब एक तरफ से धमकी दी गई, तो इन मॉडल्स ने कूटनीतिक समाधान खोजने के बजाय जवाबी कार्रवाई (Counter-escalation) की और बेझिझक परमाणु हथियारों के इस्तेमाल का आदेश दे दिया। भारी दबाव (Acute Pressure) के बावजूद किसी भी एआई ने समझदारी या संयम का परिचय नहीं दिया।

दुनिया के लिए कितनी बड़ी चेतावनी?
यह रिसर्च दुनिया भर के रक्षा विशेषज्ञों और नीति-निर्माताओं के लिए खतरे की एक बड़ी घंटी है। आज के दौर में जब कई देशों की सेनाएं अपने मिलिट्री ऑपरेशनों और हथियारों के सिस्टम में AI के इस्तेमाल को तेजी से बढ़ा रही हैं, यह अध्ययन एक भयानक तस्वीर पेश करता है।

यह साबित करता है कि मशीनों में इंसानों जैसी ‘संवेदना’, ‘नैतिकता’ और ‘तबाही का डर’ नहीं होता। वे केवल डेटा और लॉजिक पर काम करती हैं। अगर भविष्य में कभी भी AI को ऐसे विनाशकारी हथियारों (खासकर परमाणु हथियारों) का स्वतंत्र या ऑटोमेटेड नियंत्रण दे दिया गया, तो एक छोटी सी चिंगारी भी पूरी दुनिया को राख कर सकती है।

कुल मिलाकर, इस शोध ने यह स्पष्ट कर दिया है कि AI तकनीक चाहे कितनी भी स्मार्ट क्यों न हो जाए, राष्ट्रीय सुरक्षा, युद्ध और सैन्य कमान के फैसले हमेशा इंसानी नियंत्रण (Human Oversight) में ही रहने चाहिए। तकनीक के इस युग में यह रिपोर्ट नीति-निर्माताओं को सचेत करने के लिए काफी है।

Related Articles

Back to top button