संदर्भ
हाल ही में सैन्य क्षेत्र में उत्तरदायी AI पर तीसरा वैश्विक शिखर सम्मलेन (REAIM), कॉरुना, स्पेन में संपन्न हुआ, जिसने व्यापक नैतिक सिद्धांतों से व्यावहारिक संचालन की ओर महत्त्वपूर्ण परिवर्तन को चिह्नित किया।
संबंधित तथ्य
- वैश्विक नियमन और रणनीतिक सुरक्षा के बीच विभाजन प्रदर्शित हुआ है, जो भारत की ‘पाथवे-टू-एक्शन’ घोषणा से दूरी बनाए रखने में परिलक्षित होता है, जहाँ अमेरिका और चीन के साथ भारत ने तकनीकी संप्रभुता, नैतिकता तथा राष्ट्रीय रक्षा का संतुलन बनाए रखा।
|
अनुच्छेद-36 समीक्षा: जेनेवा कन्वेंशन के तहत, कुछ देशों ने हर नए AI-सक्षम हथियार प्रणाली के लिए अनिवार्य कानूनी समीक्षाओं की संस्थागत व्यवस्था की है, ताकि यह सुनिश्चित किया जा सके कि अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन हो।
|
सैन्य क्षेत्र में उत्तरदायी AI पर तीसरे वैश्विक शिखर सम्मेलन (REAIM) के मुख्य परिणाम
- ‘पाथवे-टू-एक्शन’ की स्वीकृति: वर्ष 2026 के सम्मेलन का मुख्य परिणाम “पाथवे-टू-एक्शन” घोषणा की स्वीकृति था।
- यह दस्तावेज वर्ष 2024 के सियोल ब्लूप्रिंट फॉर एक्शन के उच्च-स्तरीय सिद्धांतों को राष्ट्रीय क्रियान्वयन के ठोस चरणों में अनुवादित करने के लिए डिजाइन किया गया था।
- दायरा: इसमें प्रभाव आकलन, कार्यान्वयन रणनीतियाँ और भविष्य की शासन प्रणाली के तहत 20 विशिष्ट कार्यों का विवरण है।
- मुख्य प्रावधान: यह हथियार प्रणालियों पर मानव उत्तरदायित्व को पुष्ट करता है, स्पष्ट संचालन शृंखला का पालन अनिवार्य करता है और सभी नए AI-सक्षम सैन्य क्षमताओं के लिए अनुच्छेद-36 की मजबूत कानूनी समीक्षा की आवश्यकता बताता है।
- हस्ताक्षर की गिरावट: वर्ष 2024 के सम्मेलन में 61 देशों ने समर्थन किया था, जबकि वर्ष 2026 में 85 में से केवल 35 देशों ने घोषणा पर हस्ताक्षर किए।
- जिम्मेदार उद्योग व्यवहार ढाँचे का शुभारंभ: संयुक्त राष्ट्र निरस्त्रीकरण अनुसंधान संस्थान (UNIDIR) और मानवाधिकार उच्चायुक्त कार्यालय (OHCHR) ने एक स्वैच्छिक ढाँचा शुरू किया, जो निजी क्षेत्र को लक्षित करता है।
- महत्त्व: अधिकांश सैन्य AI नवाचार नागरिक तकनीकी क्षेत्र में होता है; यह ढाँचा ‘जिम्मेदार उद्योग आचरण’ के लिए आधार प्रदान करता है।
- फोकस: यह कंपनियों को नैतिक प्रणाली डिजाइन, डेटा सत्यता और परिनियोजन के बाद निगरानी पर मार्गदर्शन देता है, ताकि एल्गोरिदमिक पक्षपात और दुरुपयोग रोका जा सके।
- महाशक्तियों की अनिच्छा: वर्ष 2026 के सम्मेलन की एक विशेषता दुनिया की अग्रणी AI शक्तियों द्वारा प्रदर्शित “रणनीतिक अनिच्छा” थी।
- अमेरिका और चीन: दोनों देशों ने अपेक्षाकृत छोटी प्रतिनिधिमंडल भेजे और ‘पाथवेज-टू-एक्शन’ पर हस्ताक्षर करने से मना कर दिया।
- भारत: रणनीतिक स्वायत्तता की नीति जारी रखते हुए भारत ने घोषणा से दूरी बनाए रखी, यह तर्क देते हुए कि कानूनी बाध्यकारी उपकरण “अपरिपक्व” हैं क्योंकि तकनीक अभी विकसित हो रही है और राष्ट्रीय सुरक्षा आवश्यकताएँ बदल रही हैं।
- प्रभाव: इसने “मध्य शक्ति” नेतृत्व का अंतर उत्पन्न किया, जिसकी आपूर्ति मुख्यतः स्पेन, नीदरलैंड, दक्षिण कोरिया और कनाडा जैसे देश कर रहे हैं और अब वे मानक एजेंडा को आगे बढ़ा रहे हैं।
- ‘रिस्पॉन्सिबल बाय डिजाइन’ (RbD) पर ध्यान: सम्मेलन ने ‘रिस्पॉन्सिबल बाय डिजाइन’ प्रदर्शन को संस्थागत किया। यह कदम प्रणाली बनने के बाद नैतिकता से ध्यान हटाकर, कानूनी और नैतिक प्रतिबंधों को सॉफ्टवेयर विकास जीवनचक्र (SDLC) में शामिल करने की ओर केंद्रित है।
- परिणाम: देशों को प्रोत्साहित किया गया कि वे RACI मैट्रिक्स (जिम्मेदार, उत्तरदायी, परामर्श, सूचित) अपनाएँ, ताकि AI प्रणाली के जीवन चक्र में प्रारंभिक अनुसंधान से लेकर सेवानिवृत्ति तक भूमिकाओं को स्पष्ट किया जा सके।
- न्यूक्लियर फायरवॉल और वृद्धि जोखिम: एक महत्त्वपूर्ण चर्चा AI और परमाणु हथियारों के संबंध पर केंद्रित थी।
- परिणाम: हस्ताक्षरकर्ताओं के बीच मजबूत सहमति बनी (हालाँकि बाध्यकारी नहीं) कि न्यूक्लियर कमांड-एंड-कंट्रोल (NC3) प्रणालियों पर मानव नियंत्रण बनाए रखा जाए, ताकि “फ्लैश युद्ध” या आकस्मिक एल्गोरिदमिक वृद्धि को रोका जा सके।
- वैश्विक दक्षिण के लिए क्षमता निर्माण: कई देशों में सैन्य AI का मूल्यांकन करने के लिए तकनीकी अवसंरचना का अभाव होने के कारण, सम्मेलन ने क्षेत्रीय उत्कृष्टता केंद्रों की भूमिका को उजागर किया।
- महत्त्व: परिणामों ने ज्ञान-साझाकरण केंद्रों की आवश्यकता पर बल दिया, ताकि विकासशील देश “सुरक्षा” से वंचित न रहें और भविष्य की शासन चर्चाओं से बाहर न हों।
सैन्य क्षेत्र में उत्तरदायी AI पर तीसरा वैश्विक शिखर सम्मलेन (REAIM)
सैन्य क्षेत्र में उत्तरदायी AI (REAIM) एक उच्च-स्तरीय, बहु-पक्षीय मंच के रूप में लॉन्च किया गया है, जिसका उद्देश्य युद्ध में कृत्रिम बुद्धिमत्ता के नैतिक, कानूनी और तकनीकी चुनौतियों को संबोधित करना है।
- उत्पत्ति: पहला शिखर सम्मेलन नीदरलैंड्स के हेग में (वर्ष 2023) आयोजित हुआ, इसके बाद सियोल, दक्षिण कोरिया (2024), और स्पेन (2026) में।
- मुख्य उद्देश्य: हथियार प्रणालियों पर “सार्थक मानव नियंत्रण” बनाए रखने और यह सुनिश्चित करने के लिए कि सैन्य AI अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन करे, वैश्विक सहमति को बढ़ावा दे।
- मुख्य परिणाम: यह प्रक्रिया “काल-टू-एक्शन” (2023) से “ब्लूप्रिंट फॉर एक्शन” (2024) और हाल ही में “पाथवे-टू-एक्शन” (2026) तक विकसित हुई है।
- “पाथवे-टू-एक्शन” (2026) का उद्देश्य उच्च-स्तरीय सिद्धांतों को ठोस राष्ट्रीय कार्यान्वयन ढाँचों में बदलना है।
REAIM का महत्त्व और आवश्यकता
सैन्य संघर्ष में कृत्रिम बुद्धिमत्ता (AI) की परिवर्तनकारी और संभावित अस्थिर प्रकृति के कारण REAIM ढाँचे के तहत वैश्विक मार्गदर्शक आवश्यक हैं। नैतिक, कानूनी और परिचालनात्मक आवश्यकताओं को समेकित करते हुए, REAIM की आवश्यकता निम्नलिखित कारणों से पुष्ट होती है:
- निर्णय चक्र का संकुचन (OODA लूप): AI विशाल डेटा सेट्स को तेजी से संसाधित कर पैटर्न पहचान सकता है, जिससे OODA लूप (Observe, Orient, Decide, Act) अत्यधिक तेजी से चलता है।
- मार्गदर्शक सुनिश्चित करते हैं कि AI केवल सहायक उपकरण रहे, स्वतः निर्णय लेने वाला न बने।
- सटीकता और एल्गोरिदमिक पक्षपात का संतुलन: जिम्मेदारी से उपयोग किया गया AI सटीकता बढ़ा सकता है और गैर-लक्षित क्षति (Collateral Damage) को कम कर सकता है।
- अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन: IHL का मानक है कि किसी भी हथियार प्रणाली को विभेदन (सिविलियन और सेनानियों के बीच अंतर करने की क्षमता) और सापेक्षता (सैन्य लाभ नागरिक जोखिम से अधिक होना चाहिए) के मूल सिद्धांतों का पालन करना चाहिए।
- सार्थक मानव नियंत्रण और एजेंसी सुनिश्चित करना: REAIM का मूल लक्ष्य है कि घातक निर्णय लेने में मानव का अस्तित्त्व बना रहे।
- सार्थक मानव नियंत्रण: यह सिद्धांत बताता है कि घातक शक्ति के उपयोग के लिए नैतिक और कानूनी जिम्मेदारी हमेशा मानव की ही होनी चाहिए।
- यह सुनिश्चित करता है कि कमांडर किसी प्रणाली के लक्ष्य चयन के “कैसे और क्यों” को समझे (ब्लैक बॉक्स समस्या का समाधान) और तभी हमला अधिकृत करे।
- नैतिक आवश्यकता: मानव जीवन लेने का निर्णय सचेत नैतिक निर्णय होना चाहिए, मशीन का गणितीय आउटपुट नहीं।
ब्लैक बॉक्स समस्या के बारे में
- “ब्लैक बॉक्स” समस्या उन उन्नत AI प्रणालियों की अंतर्निहित अस्पष्टता को दर्शाती है, विशेष रूप से डीप लर्निंग और न्यूरल नेटवर्क वाले सिस्टम।
- इन प्रणालियों में इनपुट (डेटा) और आउटपुट (निर्णय) दिखाई देते हैं, लेकिन उन निर्णयों तक पहुँचने के लिए उपयोग किए गए आंतरिक गणितीय प्रक्रियाएँ मानव समझ के लिए अत्यधिक जटिल या छिपी हुई होती हैं।
- सैन्य क्षेत्र में, यह “ब्लैक बॉक्स” प्रकृति परिचालन दक्षता और मानव जिम्मेदारी के बीच गंभीर तनाव उत्पन्न करती है।
|
सैन्य AI के शासन में प्रमुख चुनौतियाँ
- परिभाषात्मक गतिरोध और रणनीतिक अस्पष्टता: अंतरराष्ट्रीय मानक स्थापित करने में मुख्य बाधा है, घातक स्वायत्त हथियार प्रणालियों (LAWS) की सार्वभौमिक रूप से स्वीकृत परिभाषा का अभाव।
- गतिरोध की प्रक्रिया: “स्वायत्तता” या “घातकता” की स्पष्ट परिभाषा न होने पर बाध्यकारी संधि निर्माण लगभग असंभव है।
- रणनीतिक विभाजन
- उन्नत देश: अक्सर “उच्च-सीमा” परिभाषाओं को प्राथमिकता देते हैं, जो शून्य मानव निगरानी वाली प्रणालियों पर केंद्रित हैं, जबकि अर्द्ध-स्वायत्त या मानव-निरीक्षित प्रणालियाँ कानूनी विनियमन से बाहर रहती हैं।
- गैर-उन्नत देश: पूर्ण प्रतिबंध या “निम्न-सीमा” परिभाषाओं को प्राथमिकता देते हैं, ताकि वे प्रणालियाँ, जिनसे AI से असंबद्ध देशों को सैन्य हानि हो सकता है, सीमित की जा सकें।
- किलर रोबोट: “किलर रोबोट” के रूप में जानी जाने वाली LAWS, बिना मानव हस्तक्षेप के लक्ष्य खोजने, चयन करने और उन्हें निशाना बनाने में सक्षम होती हैं।
- स्पष्ट कानूनी सीमा की अनुपस्थिति इन प्रणालियों को मौजूदा हथियार नियंत्रण ढाँचों के तहत वर्गीकृत करने से रोकती है।
- ड्यूल-यूज दुविधा और सत्यापन समस्याएँ: ‘ड्यूल-यूज’ दुविधा यह दर्शाती है कि नागरिक उद्देश्यों के लिए विकसित AI तकनीक को आसानी से विनाशकारी सैन्य उद्देश्यों के लिए प्रयोग किया जा सकता है।
- नागरिक तकनीक का पुनः उपयोग: जैसे नागरिक लॉजिस्टिक्स, स्व-चालित वाहन, या स्वायत्त वितरण ड्रोन AI को आसानी से लोइटरिंग म्यूनिशन्स (स्वयंघाती ड्रोन) या बुद्धिमान निगरानी उपकरणों में परिवर्तित किया जा सकता है।
- रासायनिक युद्ध का उदाहरण (2024): शोधकर्ताओं ने दिखाया कि एक AI को, जिसे फार्मास्यूटिकल खोज के लिए बनाया गया था, छह घंटे से कम समय में 40,000 नए रासायनिक हथियार एजेंटों के ब्लूप्रिंट बनाने के लिए विपरीत प्रयोग में लाया जा सकता है।
- पालन-पोषण की कठिनाई: इन तकनीकों के शोध एवं अनुसंधान प्रायः निजी क्षेत्र में होते हैं, जिससे यह सत्यापित करना मुश्किल है कि कोई देश “जिम्मेदार” नागरिक AI विकसित कर रहा है या “घातक” सैन्य AI।
- वृद्धि जोखिम और न्यूक्लियर-AI संबंध: न्यूक्लियर कमांड, कंट्रोल और कम्युनिकेशन (NC3) में AI का एकीकरण वैश्विक स्थिरता के लिए अस्तित्वगत खतरा उत्पन्न करता है।
- आकस्मिक वृद्धि: AI-सक्षम निर्णय सहायक उपकरणों के उपयोग से ऑटोमेशन बायस उत्पन्न हो सकता है, जहाँ मानव ऑपरेटर एल्गोरिदमिक आउटपुट पर अधिक निर्भर हो जाते हैं।
- एल्गोरिदमिक त्रुटि या जनरेटिव AI की “भ्रमना” आकस्मिक परमाणु लॉन्च या तेजी से वृद्धि को उत्प्रेरित कर सकती है, इससे पहले कि मानव राजनयिक हस्तक्षेप कर सकें।
- रणनीतिक स्थिरता: निर्णय संबंधी लाभ पाने की प्रतिस्पर्द्धा में, “सुरक्षा दुविधा” के कारण, राज्य अप्रयुक्त AI को चेतावनी प्रणालियों में शामिल कर सकते हैं, जिससे “फ्लैश वार्स” का खतरा बढ़ता है।
- जवाबदेही का अंतर और ब्लैक बॉक्स समस्या: यदि कोई स्वायत्त प्रणाली युद्ध अपराध करती है, तो कमांड जिम्मेदारी का मौजूदा कानूनी ढाँचा अस्पष्ट हो जाता है।
- जिम्मेदारी का अंतर: यह स्पष्ट नहीं है कि किसे जिम्मेदार ठहराया जाए:
- प्रोग्रामर (कोडिंग त्रुटि के लिए)
- कमांडर (सिस्टम तैनात करने के लिए)
- मशीन (जिसकी कोई कानूनी स्थिति नहीं है)।
- अनुच्छेद-36 की समीक्षा: जेनेवा कन्वेंशनों के अतिरिक्त प्रोटोकॉल I के तहत, राज्यों को कानूनी रूप से अनुच्छेद-36 समीक्षा करनी आवश्यक है ताकि यह निर्धारित किया जा सके कि नए हथियार अंतरराष्ट्रीय कानून द्वारा प्रतिबंधित हैं या नहीं।
- व्याख्यात्मक संकट: AI की “ब्लैक बॉक्स” प्रकृति, जहाँ डीप लर्निंग मॉडल के आंतरिक तर्क मानव समझ के लिए अत्यधिक जटिल होते हैं, इन कानूनी समीक्षाओं को लगभग असंभव बनाती है।
- यदि कमांडर यह स्पष्ट नहीं कर सकता कि AI ने किसी लक्ष्य का चयन क्यों किया, तो वह अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन सुनिश्चित नहीं कर सकता है।
- कृत्रिम बुद्धिमत्ता आधारित हथियार प्रतिस्पर्द्धा और सुरक्षा संबंधी कमी: वैश्विक सैन्य AI वर्चस्व की प्रतिस्पर्द्धा ने एक AI हथियार दौड़ को जन्म दिया है, जो सुरक्षा की तुलना में गति को प्राथमिकता देती है।
- क्षमता में अंतर: प्रतिद्वंद्वी देशों से पीछे न रहने के लिए, राष्ट्र कठोर परीक्षण और मूल्यांकन (T&E) तथा सुरक्षा प्रोटोकॉल में कटौती करने के लिए प्रेरित होते हैं।
- एल्गोरिदमिक पक्षपात: यदि प्रशिक्षण डेटा दोषपूर्ण या पक्षपाती है, तो AI युद्ध क्षेत्र में विनाशकारी लक्ष्य त्रुटियाँ या व्यवस्थित भेदभाव उत्पन्न कर सकता है।
- हालिया उदाहरण (2024–2025): हाल के उच्च-तीव्रता संघर्षों में लैवेंडर और गॉस्पेल जैसे AI-सक्षम लक्ष्य प्रणाली के तैनाती ने लक्ष्य निर्माण में AI की गति बढ़ाने की क्षमता को प्रदर्शित किया।
- हालाँकि, इन मामलों ने उच्च नागरिक हताहतों के कारण वैश्विक विरोध भी उत्पन्न किया, यह दिखाते हुए कि मानव निरीक्षण न्यूनतम होने पर मशीन आउटपुट पर निर्भर होना कितने खतरनाक हो सकता है।
भारत की पहलें
भारत ने अंतरराष्ट्रीय स्तर पर “निगरानी एवं प्रतीक्षा” (Watch-and-Wait) दृष्टिकोण अपनाया है, जबकि आक्रामक रूप से अपनी स्वदेशी क्षमताओं के आधुनिकीकरण में लगा हुआ है:
- रक्षा कृत्रिम बुद्धिमत्ता परिषद (DAIC): यह निकाय नीति निर्देश प्रदान करता है और भारतीय सशस्त्र बलों में कृत्रिम बुद्धिमत्ता के समन्वयन की निगरानी करता है।
- ‘आत्मनिर्भरता’ के लिए 75 AI उत्पाद: हाल ही में रक्षा मंत्रालय ने 75 कृत्रिम बुद्धिमत्ता-संचालित उत्पादों को क्रियान्वित किया, जिनमें स्वायत्त निगरानी ड्रोन और सीमा खुफिया के लिए AI आधारित भाषा अनुवादक शामिल हैं।
- रक्षा उत्कृष्टता हेतु नवाचार (iDEX): यह पहल स्टार्ट-अप्स को द्वि-उपयोगी कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों, जैसे कि स्वार्म ड्रोन एल्गोरिदम और लाइट कॉम्बैट एयरक्राफ्ट (LCA) तेजस जैसे लड़ाकू विमानों के लिए पूर्वानुमानित रखरखाव, विकसित करने के लिए वित्तपोषण प्रदान करती है।
- भारत AI शासन दिशा-निर्देश (2025-2026): भारत ने हाल ही में “सुरक्षा और विश्वास” पर केंद्रित सिद्धांत-आधारित ढाँचा जारी किया, जो यह सुनिश्चित करता है कि कृत्रिम बुद्धिमत्ता नवाचार राष्ट्रीय मूल्यों या मानव सुरक्षा से समझौता न करे।
- संयुक्त राष्ट्र CCW में स्थिति: संयुक्त राष्ट्र के कुछ पारंपरिक हथियारों पर कन्वेंशन (CCW) में भारत LAWS आधारित सरकारी विशेषज्ञ समूह (GGE) की अध्यक्षता और भागीदारी करता है, और सैन्य आवश्यकता तथा मानवीय अनिवार्यताओं के बीच संतुलन बनाए रखता है।
वैश्विक पहल और सर्वोत्तम वैश्विक प्रथाएँ
सैन्य कृत्रिम बुद्धिमत्ता का शासन उच्च-स्तरीय राजनीतिक घोषणाओं, मानवीय पक्ष और “सुरक्षा-से-निर्माण” तकनीकी मानकों के मिश्रण के माध्यम से विकसित हो रहा है। ये पहल तीव्र नवाचार और अंतरराष्ट्रीय संधि निर्माण की धीमी गति के मध्य के समयांतराल को समाप्त करने के लक्ष्य निर्धारित करती हैं।
- कृत्रिम बुद्धिमत्ता के जिम्मेदार सैन्य उपयोग पर अमेरिका की राजनीतिक घोषणा (2023): वर्ष 2026 तक 50 से अधिक देशों द्वारा समर्थित, यह ढाँचा रक्षा विभाग (DoD) और अंतरराष्ट्रीय सहयोगियों के लिए मानदंड स्थापित करने का एक प्रमुख गैर-बाध्यकारी प्रयास है।
- मूल सिद्धांत: इसमें दस मार्गदर्शक सिद्धांत शामिल हैं, जिनमें यह आवश्यक है कि कृत्रिम बुद्धिमत्ता प्रणालियों के स्पष्ट और परिभाषित उपयोग संभव हो सके और उनका संपूर्ण जीवनचक्र में कठोर परीक्षण और मूल्यांकन (T&E) किया जाए।
- वरिष्ठ-स्तरीय निगरानी: यह अनिवार्य करता है कि “उच्च-परिणाम” वाले अनुप्रयोग—जैसे बल प्रयोग से संबंधित—तैनाती से पूर्व वरिष्ठ-स्तरीय मानवीय समीक्षा के अधीन हों, ताकि स्वचालन पक्षपात को न्यूनतम किया जा सके।
- श्रेष्ठ वैश्विक अभ्यास: यह घोषणा एक “अभ्यास समुदाय” के रूप में कार्य करती है, जहाँ सहयोग करने वाले देश पारदर्शी और ऑडिट योग्य कृत्रिम बुद्धिमत्ता संरचनाओं के निर्माण के लिए अपनी कार्यप्रणालियाँ साझा करते हैं।
- “सियोल ढाँचा” और कार्यान्वयन रूपरेखा (2024): यह ढाँचा, जो दक्षिण कोरिया में आयोजित REAIM 2024 शिखर बैठक में विकसित हुआ, चर्चा को सारगर्भित नैतिकता से राष्ट्रीय उत्तरदायित्व की ओर ले गया।
- कार्यान्वयन रूपरेखा: 61 देशों द्वारा अंगीकृत, यह रूपरेखा राज्यों को अपने राष्ट्रीय सैन्य सिद्धांतों में नैतिक मानकों को एकीकृत करने के लिए मार्गदर्शन प्रदान करती है।
- प्रमुख नवाचार: यह राज्यों को राष्ट्रीय “आचार संहिता” अपनाने के लिए प्रोत्साहित करती है, जो सैन्य कृत्रिम बुद्धिमत्ता की खरीद में पारदर्शिता सुनिश्चित करती है और यह सुनिश्चित करती है कि निजी क्षेत्र के संविदाकार भी सैन्य नैतिक मानकों का अनुपालन करें।
- दृष्टिकोणों का समावेश: यह ढाँचा “युवा और शांति” के दृष्टिकोण को शामिल करने के लिए विशेष रूप से उल्लेखनीय रहा, यह स्वीकार करते हुए कि कृत्रिम बुद्धिमत्ता युद्ध का दीर्घकालिक प्रभाव आने वाली पीढ़ियों पर पड़ेगा।
- नाटो की “निर्माण-से-उत्तरदायी” (RbD) रणनीति: उत्तरी अटलांटिक संधि संगठन (NATO) ने अपने मूल्यों से समझौता किए बिना तकनीकी बढ़त बनाए रखने हेतु “निर्माण से उत्तरदायी” दर्शन की अग्रणी पहल की है।
- नैतिकता का कठोर अंतःसन्निवेशन: निर्माण से उत्तरदायी दृष्टिकोण विधिक एवं नैतिक प्रतिबंधों को सीधे सॉफ्टवेयर विकास जीवनचक्र में समाहित करने का समर्थन करता है। इसका आशय यह है कि अनुसंधान चरण से ही कृत्रिम बुद्धिमत्ता में “अग्नि-दीवारें” और “तर्क द्वार” कूटबद्ध किए जाएँ।
- उपयोग के छह सिद्धांत: नाटो की कृत्रिम बुद्धिमत्ता रणनीति छह स्तंभों पर आधारित है— विधिसंगतता, उत्तरदायित्व, विश्वसनीयता, शासनीयता और पक्षपात न्यूनीकरण।
- प्रमाणीकरण प्रोटोकॉल: नाटो मानकीकृत प्रमाणीकरण प्रक्रियाएँ विकसित कर रहा है, ताकि किसी एक सदस्य राष्ट्र में विकसित कृत्रिम बुद्धिमत्ता प्रणाली गठबंधन के अन्य देशों के साथ विधिक और तकनीकी रूप से “अंतःप्रचालनीय” सुनिश्चित की जा सके।
- अनुच्छेद-36 की समीक्षाएँ-विधिक प्रवेशद्वार: जेनेवा कन्वेंशनों के अतिरिक्त प्रोटोकॉल-I के अनुच्छेद-36 के अंतर्गत, राज्यों पर यह विधिक दायित्व है कि वे यह निर्धारित करें कि कोई “नया हथियार, साधन अथवा युद्ध की पद्धति” अंतरराष्ट्रीय विधि द्वारा निषिद्ध तो नहीं है।
- अनिवार्य कानूनी लेखा-परीक्षण: कुछ देश अब कृत्रिम बुद्धिमत्ता आधारित हथियार प्रणालियों के लिए विशेष रूप से अनिवार्य कानूनी समीक्षाओं को संस्थागत बना रहे हैं। इसके तहत विधि विशेषज्ञों को डेटा वैज्ञानिकों के साथ मिलकर यह सुनिश्चित करना होता है कि प्रणाली अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन कर रही है।
- ‘लर्निंग एल्गोरिदम’ की चुनौती: एक उभरती हुई सर्वोत्तम प्रथा “निरंतर समीक्षा” मॉडल है।
- पारंपरिक हथियारों के विपरीत, कृत्रिम बुद्धिमत्ता आधारित प्रणाली तैनाती के बाद भी “सीख” सकती है और अपना व्यवहार परिवर्तित कर सकती है। इसलिए, युद्धक्षेत्र में उपयोग के बाद भी समय-समय पर कानूनी पुनर्मूल्यांकन आवश्यक है।
- अंतरराष्ट्रीय रेड क्रॉस समिति की “द्वि-स्तरीय” संस्तुतियाँ: अंतरराष्ट्रीय रेड क्रॉस समिति वैश्विक विमर्श के लिए नैतिक और मानवीय दिशा-सूचक प्रदान करती है।
- स्तर 1 — निषेध: समिति उन घातक स्वायत्त हथियार प्रणालियों पर पूर्ण प्रतिबंध की माँग करती है, जो अप्रत्याशित (ब्लैक बॉक्स) हों या जिन्हें बिना किसी मानवीय सहभागिता के सीधे मनुष्यों को लक्ष्य बनाने हेतु अभिकल्पित किया गया हो।
- स्तर 2 — प्रतिबंध: अन्य सभी स्वायत्त प्रणालियों के लिए समिति संचालन के समय और स्थान पर कठोर सीमाएँ निर्धारित करने का समर्थन करती है, ताकि मनुष्य सार्थक मानवीय नियंत्रण बनाए रख सकें और अनपेक्षित नागरिक क्षति को रोका जा सके।
आगे की राह
जैसे-जैसे वैश्विक युद्ध परिदृश्य मशीन-गति संचालित अभियानों की ओर अग्रसर हो रहा है, विनियमन के प्रति पारंपरिक “प्रतीक्षा और अवलोकन” दृष्टिकोण दायित्व में परिवर्तित होता जा रहा है। मानव सुरक्षा और रणनीतिक स्थिरता पर केंद्रित एक संतुलित एवं चरणबद्ध रोडमैप की आवश्यकता है, जिससे इस संक्रमण का सुचारु संचालन किया जा सके।
- चरणबद्ध मानक विकास- सौम्य विधि से बाध्यकारी विधि की ओर: वर्तमान परिभाषात्मक गतिरोध तथा अनुसंधान एवं विकास की तीव्र गति को देखते हुए, तत्काल बाध्यकारी संधि की माँग करना प्रायः प्रतिकूल सिद्ध हो सकता है।
- स्वैच्छिक आचार संहिता: प्रारंभिक चरण में राज्यों को विश्वास निर्माण हेतु एक गैर-बाध्यकारी आचार संहिता पर ध्यान केंद्रित करना चाहिए।
- इसमें अभियानों के क्षेत्र में तैनाती से पूर्व कृत्रिम बुद्धिमत्ता प्रणालियों के सत्यापन और प्रमाणीकरण के लिए साझा मानक सम्मिलित हों।
- प्रथम चरण में मानक ढाँचे की स्थापना: वैश्विक मानदंडों की स्थापना — जैसे पूर्णतः स्वायत्त घातक लक्ष्यीकरण के विरुद्ध साझा “निषेध भावना” गलत आकलनों को रोकते हुए तकनीकी प्रगति के लिए स्थान सुरक्षित रखती है।
- जब ये मानदंड स्थिर हो जाएँ, तब वे भविष्य की बाध्यकारी संधियों के लिए आधार बन सकते हैं।
- नाभिकीय “अवरोध रेखाओं” और ‘न्यूक्लियर फायरवॉल’ की स्थापना: तात्कालिक प्राथमिकता नाभिकीय और कृत्रिम बुद्धिमत्ता के अंतर्संबंध पर केंद्रित होनी चाहिए। एल्गोरिदमिक नाभिकीय युद्ध की संभावना को रोकने हेतु कृत्रिम बुद्धिमत्ता को रणनीतिक प्रक्षेपण निर्णयों से पूर्णतः पृथक रखा जाना अनिवार्य है।
- पूर्ण निषेध: एक वैश्विक समझौते की आवश्यकता है, जो ‘न्यूक्लियर फायरवॉल’ को यह सुनिश्चित करते हुए स्थापित करे, कि कृत्रिम बुद्धिमत्ता प्रणालियों को कभी भी नाभिकीय कमान, नियंत्रण और संचार पर स्वायत्त नियंत्रण न प्रदान किया जाए।
- सुरक्षित निर्णय-सहायता: यद्यपि कृत्रिम बुद्धिमत्ता प्रारंभिक चेतावनी संबंधी आँकड़ों के प्रसंस्करण में सहायक हो सकती है, तथापि उन्नयन का अंतिम निर्णय “मानव-परिपथ में” कार्य के रूप में ही बना रहना चाहिए।
- जोखिम-आधारित पदानुक्रम का कार्यान्वयन: सभी सैन्य कृत्रिम बुद्धिमत्ता प्रणालियाँ समान रूप से जोखिमपूर्ण नहीं हैं। प्रभावी विनियमन हेतु राज्यों को “जोखिम मैट्रिक्स” अपनानी चाहिए, जिसके अंतर्गत नियंत्रण प्रणाली की संभावित हानि के अनुपात में निर्धारित किए जाएँ।
- उच्च-जोखिम कृत्रिम बुद्धिमत्ता (घातक लक्ष्यीकरण): इन प्रणालियों पर कठोर पारदर्शिता आवश्यकताएँ, अनिवार्य मानव-पर्यवेक्षण और अनुच्छेद-36 की समीक्षाएँ लागू होनी चाहिए।
- निम्न-जोखिम कृत्रिम बुद्धिमत्ता (लॉजिस्टिक्स एवं रखरखाव): लड़ाकू विमानों के लिए पूर्वानुमानित रखरखाव या आपूर्ति शृंखला अनुकूलन जैसे अनुप्रयोगों को सरल विनियामक ढाँचों के अंतर्गत संचालित किया जा सकता है, जिससे नवाचार और परिचालन दक्षता को प्रोत्साहन मिले।
- जीवनचक्र-आधारित अनुच्छेद-36 समीक्षाओं का संस्थानीकरण: पारंपरिक हथियार समीक्षाएँ सामान्यतः एक बार की प्रक्रिया होती हैं। किंतु अधिगमशील एल्गोरिदम समय के साथ परिवर्तित होते हैं, जिससे एक नवीन दृष्टिकोण की आवश्यकता उत्पन्न होती है।
- आवर्तक विधिक लेखा-परीक्षण: राष्ट्रों को निरंतर अनुच्छेद-36 समीक्षाएँ संचालित करने के सर्वोत्तम अभ्यास साझा करने चाहिए। इसमें प्रत्येक सॉफ्टवेयर का अद्यतन अथवा आधारभूत मॉडल द्वारा नवीन युद्धक्षेत्रीय आँकड़ों से अधिगम के पश्चात् पुनर्मूल्यांकन सम्मिलित हो।
- बहुविषयी दल: विधिक समीक्षाओं को केवल विधिक अभ्यास तक सीमित न रखकर बहुविषयी लेखा-परीक्षण में रूपांतरित किया जाना चाहिए, जिसमें डेटा वैज्ञानिक, नैतिकताविद और सैन्य कमांडर सम्मिलित हों।
- शस्त्र स्पर्द्धा की रोकथाम हेतु विश्वास-निर्माण उपाय: पिछड़ने के भय से प्रेरित अनियंत्रित कृत्रिम बुद्धिमत्ता आधारित शस्त्र स्पर्द्धा को रोकने के लिए राज्यों को पारदर्शिता पहलों में संलग्न होना चाहिए।
- स्वैच्छिक डेटा साझाकरण: राज्य कृत्रिम बुद्धिमत्ता सुरक्षा प्रोटोकॉल तथा परीक्षण एवं मूल्यांकन प्रक्रियाओं पर उच्च-स्तरीय जानकारी साझा कर सकते हैं, बिना संवेदनशील तकनीकी गोपनीयताओं को प्रदर्शित किए।
- एल्गोरिदमिक त्रुटियों हेतु त्वरित संपर्क तंत्र: विरोधी राज्यों के बीच अनपेक्षित कृत्रिम बुद्धिमत्ता व्यवहार या आकस्मिक उग्रता की त्वरित स्पष्टता हेतु समर्पित संचार माध्यम स्थापित किए जाने चाहिए, जैसा कि शीतयुद्ध कालीन “हॉटलाइन” वार्ता व्यवस्था में निहित था।
निष्कर्ष
21वीं सदी में युद्ध में कृत्रिम बुद्धिमत्ता का एकीकरण एक अनिवार्य यथार्थ है। भारत के लिए रणनीतिक स्वायत्तता बनाए रखने का अर्थ है सशक्त कृत्रिम बुद्धिमत्ता क्षमताओं का विकास करना, साथ ही सार्थक मानवीय नियंत्रण पर वैश्विक विमर्श का नेतृत्व करना। अंतरराष्ट्रीय मानवीय विधि की रक्षा करते हुए नवाचार को बाधित न करने वाले सुरक्षा-नियंत्रणों का समर्थन कर, भारत यह सुनिश्चित कर सकता है कि प्रौद्योगिकी सुरक्षा का साधन बनी रहे, न कि अनपेक्षित आपदा का कारण।