पेंटागन ने अपनी गुप्त प्रणालियों में वाणिज्यिक एआई को एकीकृत करने का निर्णय लिया

लेखक: Tatyana Hurynovich

जहाँ एक ओर कृत्रिम बुद्धिमत्ता (एआई) के नैतिकता विशेषज्ञ सैन्य प्रणालियों में एआई के उपयोग से जुड़े जोखिमों पर चर्चा कर रहे हैं, वहीं अमेरिकी रक्षा मंत्रालय ने तकनीकी कंपनियों के साथ कई समझौतों की घोषणा की है। एसोसिएटेड प्रेस की एक रिपोर्ट के अनुसार, पेंटागन ने सात प्रमुख आईटी कंपनियों के साथ सौदे किए हैं ताकि सुरक्षित सैन्य नेटवर्क में उनके वाणिज्यिक एआई मॉडल का उपयोग किया जा सके—एक ऐसा क्षेत्र जहाँ पहले इस तरह के एल्गोरिदम का इस्तेमाल लगभग नहीं किया गया था।

ये समझौते केवल सामान्य हार्डवेयर की आपूर्ति तक सीमित नहीं हैं: एपी के अनुसार, इनमें डेटा विश्लेषण, लॉजिस्टिक्स, खुफिया जानकारी और सैनिकों के निर्णय लेने में सहायता के लिए तैयार वाणिज्यिक मॉडल का उपयोग शामिल है। पहले पेंटागन अक्सर अपने स्वयं के विकास और विशिष्ट समाधानों पर भरोसा करता था, लेकिन अब विभाग उन्नत तकनीकों को तेजी से लागू करने के उद्देश्य से जानबूझकर निजी क्षेत्र के साथ घनिष्ठ सहयोग की दिशा में बढ़ रहा है।

इन समझौतों का होना वैश्विक प्रतिस्पर्धा के बीच सैन्य एआई के क्षेत्र में अमेरिका की तकनीकी उपस्थिति को मजबूत करता है, जिसमें चीन भी शामिल है जो कृत्रिम बुद्धिमत्ता के सैन्यीकरण के अपने कार्यक्रमों को सक्रिय रूप से विकसित कर रहा है। इसके साथ ही, जैसा कि विशेषज्ञों का कहना है, वाणिज्यिक कंपनियाँ मूल रूप से उपयोगकर्ता की सुविधा, विज्ञापन और सेवाओं से संबंधित कार्यों के लिए एल्गोरिदम बनाती हैं, न कि युद्ध अभियानों की चुनौतीपूर्ण स्थितियों में निर्णय लेने के लिए।

एल्गोरिदम की त्रुटियों की जिम्मेदारी, प्रशिक्षण में संभावित पक्षपात और सैन्य प्रणालियों में एआई के स्वीकार्य उपयोग की सीमाओं जैसे प्रश्न अभी भी अस्पष्ट बने हुए हैं। पेंटागन के आधिकारिक बयान सख्त नियंत्रण और "किसी भी वैध परिचालन उपयोग" (lawful operational use) पर जोर देते हैं, लेकिन उच्च स्तर की गोपनीयता के बीच पूरी तरह से खुली जाँच और पारदर्शी सार्वजनिक बहस का होना कठिन बना हुआ है।

विश्लेषकों का मानना है कि इस तरह के सौदे एक व्यापक प्रवृत्ति को दर्शाते हैं: सरकार अब विशेष रूप से अपने स्वयं के विकास पर निर्भर नहीं रह सकती है, इसलिए वह नवाचार का एक बड़ा हिस्सा निजी प्रयोगशालाओं और निगमों को सौंप रही है। बदले में, तकनीकी कंपनियों को बड़े पैमाने पर सरकारी वित्त पोषण और उस डेटा तक पहुँच प्राप्त होती है, जो सामान्य परिस्थितियों में उनके लिए उपलब्ध नहीं होता।

स्मार्टफोन में मार्ग चुनने में मदद करने वाले वाणिज्यिक एआई और ड्रोन प्लेटफॉर्म के प्रबंधन या खुफिया डेटा के विश्लेषण में उपयोग होने वाले उसी प्रकार के एल्गोरिदम के बीच तुलना करने पर देखा जा सकता है कि मॉडल की त्रुटियों और खामियों से जोखिम कितना बदल जाता है। शांतिपूर्ण कार्यों में विफलताओं के परिणाम आमतौर पर सीमित होते हैं, जबकि सैन्य संदर्भ में संभावित गलतियों के परिणाम कहीं अधिक गंभीर हो सकते हैं।

ऐसी उम्मीद है कि अमेरिका के ये कदम अन्य देशों के सैन्य कार्यक्रमों में भी एआई के एकीकरण को गति दे सकते हैं, जिनमें वे देश भी शामिल हैं जो पहले से ही अपनी सैन्य एआई प्रणालियों को सक्रिय रूप से विकसित कर रहे हैं। साथ ही, वैज्ञानिक और मानवाधिकार कार्यकर्ता कृत्रिम बुद्धिमत्ता के सैन्य अनुप्रयोग के क्षेत्र में स्पष्ट नियमों और विनियमन की आवश्यकता पर जोर देते रहते हैं, और यह रेखांकित करते हैं कि नीति संबंधित मानदंडों और अंतर्राष्ट्रीय समझौतों की तुलना में अधिक तेजी से विकसित हो रही है।

ये समझौते दर्शाते हैं कि नागरिक और सैन्य प्रौद्योगिकियों के बीच की सीमाएँ तेजी से धुंधली होती जा रही हैं। सवाल यह नहीं है कि ऐसी प्रणालियाँ सामने आएंगी या नहीं, बल्कि यह है कि उनके उपयोग पर नियंत्रण कैसे सुनिश्चित किया जाएगा, और समाज तथा नियामक संस्थाएँ सुरक्षा, नवाचार और नैतिक मानकों के पालन के बीच संतुलन कैसे बनाएंगे।

5 दृश्य
क्या आपने कोई गलती या अशुद्धि पाई?हम जल्द ही आपकी टिप्पणियों पर विचार करेंगे।