होम / एडिटोरियल
अंतर्राष्ट्रीय नियम
रक्षा विभाग और मानवजनित संघर्ष
« »05-Mar-2026
स्रोत: द हिंदू
परिचय
अमेरिकी रक्षा विभाग (DoD), जिसे डोनाल्ड ट्रम्प के दूसरे कार्यकाल में युद्ध विभाग कहा जाता था, का क्लाउड AI (Claude AI) उत्पाद बनाने वाली AI कंपनी एंथ्रोपिक के साथ सार्वजनिक विवाद शुरू हो गया है। अमेरिकी रक्षा विभाग ने एंथ्रोपिक को "आपूर्ति श्रृंखला जोखिम" घोषित करने की धमकी दी है, जिससे अमेरिकी सरकार के साथ काम करने वाली कंपनियों को एंथ्रोपिक के उत्पादों का उपयोग करने से रोका जा सके। इसके बाद ChatGPT निर्माता OpenAI ने हस्तक्षेप किया और एक ऐसा करार किया जो उसके अनुसार एंथ्रोपिक की इच्छा से बहुत अलग नहीं था।
क्लॉड क्या है?
- क्लाउड एक AI चैटबॉट है जो संगठनों और व्यक्तिगत उपयोगकर्ताओं को कोड बनाने और संशोधित करने में सहायता करता है।
- अपनी क्षमताओं के कारण इसके क्लाउड कोड उत्पाद को असाधारण रूप से अच्छी प्रतिक्रिया मिली है।
- क्लाउड कोड उन कुछ AI उत्पादों में से एक है जो अत्यंत शक्तिशाली बड़े भाषा मॉडल (LLMs) के साथ चलता है और साथ ही सॉफ्टवेयर लाइब्रेरी की एक श्रृंखला तक पहुँच प्राप्त होने के बाद उपकरणों के ऑन-डिवाइस निर्माण और संपादन का समर्थन करता है।
- यह उत्पाद रक्षा प्रतिष्ठान के लिये बेहद आकर्षक है क्योंकि यह उच्च-तकनीकी हथियारों और रक्षा प्रणालियों में सुधार कर सकता है। ऐसी प्रणालियों के लिये प्रोग्रामरों की भर्ती धीमी है, क्योंकि महत्त्वपूर्ण हथियार प्रणालियों को गोपनीयता की कई परतों के अधीन संरक्षित किया जाता है, जिसके लिये समय लेने वाली सुरक्षा मंजूरी की आवश्यकता होती है।
- रक्षा विभाग के लिये क्लाउड कोड एक आकर्षक विकल्प साबित हुआ है क्योंकि यह उन प्रोग्रामों में तेजी से परिवर्तन करने की सुविधा देता है जो इसकी तकनीक को आगे बढ़ाते हैं। यद्यपि यह प्रोग्रामिंग कार्यों को सदैव पूरी तरह से सही रूप से निष्पादित नहीं करता है, फिर भी इसका प्रदर्शन इतना अच्छा है कि जिन संगठनों ने इसे व्यापक रूप से लागू किया है, विशेषकर अनुभवी सॉफ्टवेयर डेवलपर्स के बीच, विकास की समयसीमा कम हो गई है।
एंथ्रोपिक का रक्षा विभाग से टकराव क्यों हुआ?
- एंथ्रोपिक को पिछले जून में 200 मिलियन डॉलर के संविदा के भाग के रूप में रक्षा विभाग में शामिल किया गया था, जिसने अमेरिकी सरकार को अमेज़ॅन वेब सर्विसेज द्वारा होस्ट किये गए समर्पित बुनियादी ढाँचे से क्लाउड की सेवाओं का उपयोग करने की अनुमति दी थी ।
- कंपनी और रक्षा विभाग के बीच मुद्दे 9 जनवरी को शुरू हुए , जब रक्षा सचिव पीट हेगसेथ ने "अमेरिका के सैन्य AI प्रभुत्व को गति देना" शीर्षक से एक ज्ञापन प्रकाशित किया, जिसमें "डेटा साझाकरण, संचालन के लिये प्राधिकरण (ATOs), परीक्षण और मूल्यांकन और प्रमाणन, संविदा, भर्ती और प्रतिभा प्रबंधन, और अन्य नीतियों में बाधाओं को दूर करने का आह्वान किया गया जो तेजी से प्रयोग और तैनाती में बाधा डालती हैं।"
- एन्थ्रोपिक के पास क्लाउड के लिये एक बहुचर्चित "संविधान" है जो मॉडल को व्यापक निगरानी का समर्थन करने और पूरी तरह से स्वायत्त हथियारों को सक्षम करने से रोकता है।
- कंपनी के सह-संस्थापक डारियो अमोदेई ने अमेरिकी निवासियों की घरेलू निगरानी से सुरक्षा प्रदान करने और पूरी तरह से स्वायत्त हथियारों को सक्षम बनाने के लिये रक्षा विभाग और एंथ्रोपिक के बीच करार में मजबूत भाषा का प्रयोग करने पर बल दिया।
- कंपनी को पिछले शुक्रवार तक यह अवसर दिया गया था कि वह अपने रुख में परिवर्तन करे और अमेरिकी रक्षा विभाग (DoD) को अपने मॉडलों तक पूर्णतः अप्रतिबंधित पहुँच प्रदान करे। तथापि, कंपनी ने ऐसा करने से इंकार कर दिया और एक ब्लॉग पोस्ट में यह कहा कि वह अमेरिकी रक्षा विभाग को किसी अन्य सेवा-प्रदाता की ओर स्थानांतरण करने में सहयोग करेगी।
- इसके बाद रक्षा विभाग ने एंथ्रोपिक को आपूर्ति श्रृंखला जोखिम के रूप में वर्गीकृत किया - यह पदनाम सामान्यत: उन फर्मों पर लागू होता है जिनके उत्पाद विदेशी दुश्मनों को महत्त्वपूर्ण प्रणालियों में एक अप्रत्यक्ष प्रवेश द्वार प्रदान कर सकते हैं।
- तथापि यह पदनाम केवल रक्षा विभाग के आपूर्तिकर्ताओं और भागीदारों को रक्षा विभाग के लिये समर्पित प्रणालियों पर क्लाउड का उपयोग करने से रोकता है, लेकिन ऐसी चिंताएँ हैं कि अधिकारी सावधानी बरत सकते हैं और क्लाउड के साथ अपने संबंध पूरी तरह से तोड़ सकते हैं।
ओपनएआई (OpenAI) का करार क्या है?
- OpenAI's ने रक्षा विभाग के साथ एक करार पर बातचीत की है, जिसमें उसका दावा है कि निगरानी और पूरी तरह से स्वायत्त हथियारों के विरुद्ध वही सुरक्षा उपाय शामिल हैं जो एंथ्रोपिक ने मांगे थे।
- यह पूरी तरह से स्पष्ट नहीं है कि OpenAI's को यह सौदा हासिल करने में सफलता क्यों मिली जबकि एंथ्रोपिक को इससे बाहर कर दिया गया।
- OpenAI's द्वारा सार्वजनिक किये गए करार में कहा गया है: " Department of War, परिचालन आवश्यकताओं और सुस्थापित सुरक्षा और निगरानी प्रोटोकॉल के अनुरूप सभी वैध उद्देश्यों के लिये AI सिस्टम का उपयोग कर सकता है।"
- करार में यह भी कहा गया है कि "AI सिस्टम का प्रयोग किसी भी ऐसे मामले में स्वायत्त हथियारों को स्वतंत्र रूप से निर्देशित करने के लिये नहीं किया जाएगा जहाँ विधि, नियम या विभाग की नीति मानव नियंत्रण की आवश्यकता हो, न ही इसका उपयोग अन्य उच्च जोखिम वाले निर्णय लेने के लिये किया जाएगा जिनके लिये समान अधिकारिता के अधीन मानव निर्णयकर्ता द्वारा अनुमोदन की आवश्यकता होती है।"
- खबरों के मुताबिक, एंथ्रोपिक ने करार की विधिक भाषा में अधिक स्पष्टता लाने की मांग की है, जो ऊपर वर्णित उपयोग के मामलों को प्रतिबंधित करेगी, भले ही उन्हें विधिक मान्यता मिल जाए।
- OpenAI ने एक कथन में कहा: "हमारा मानना है कि हमारी सीमाएँ यहाँ अधिक प्रभावी ढंग से लागू की जा सकती हैं क्योंकि तैनाती केवल क्लाउड तक सीमित है (not at the edge), इससे हमारा सुरक्षा तंत्र उस तरह से काम करता रहता है जैसा हम सबसे अच्छा मानते हैं, और OpenAI के अधिकृत कर्मियों को भी जानकारी मिलती रहती है।"
- OpenAI ने आगे कहा: "हमें नहीं पता कि एंथ्रोपिक इस करार पर क्यों नहीं पहुँच सका, और हम आशा करते हैं कि वे और कई अन्य प्रयोगशालाएं इस पर विचार करेंगी।"
निष्कर्ष
रक्षा विभाग और एंथ्रोपिक के बीच का टकराव AI कंपनियों की सुरक्षा संबंधी प्रतिबद्धताओं और रक्षा प्रतिष्ठान की शक्तिशाली AI उपकरणों तक असीमित पहुँच की इच्छा के बीच बढ़ते तनाव को उजागर करता है। स्वायत्त हथियारों और व्यापक निगरानी के विरुद्ध अपनी सांविधानिक प्रतिबद्धताओं के चलते एंथ्रोपिक द्वारा क्लाउड को पूरी तरह से असीमित पहुँच प्रदान करने से इंकार करने के कारण उसे आपूर्ति श्रृंखला जोखिम श्रेणी में रखा गया। यह घटनाक्रम इस बारे में मूलभूत प्रश्न उठाता है कि AI कंपनियाँ अपनी घोषित नैतिक सीमाओं का पालन करते हुए सरकारी रक्षा संविदाओं में कैसे सम्मिलित हो सकती हैं - और क्या OpenAI's का अधिक लचीला करार वास्तव में एंथ्रोपिक द्वारा मांगी गई सुरक्षा प्रदान करता है।