सैन्य क्षेत्र में AI और नियंत्रण ढाँचों की तात्कालिकता

19 Feb 2026

संदर्भ

हाल ही में सैन्य क्षेत्र में उत्तरदायी AI पर तीसरा वैश्विक शिखर सम्मलेन (REAIM), कॉरुना, स्पेन में संपन्न हुआ, जिसने व्यापक नैतिक सिद्धांतों से व्यावहारिक संचालन की ओर महत्त्वपूर्ण परिवर्तन को चिह्नित किया।

संबंधित तथ्य

  • वैश्विक नियमन और रणनीतिक सुरक्षा के बीच विभाजन प्रदर्शित हुआ है, जो भारत की ‘पाथवे-टू-एक्शन’ घोषणा से दूरी बनाए रखने में परिलक्षित होता है, जहाँ अमेरिका और चीन के साथ भारत ने तकनीकी संप्रभुता, नैतिकता तथा राष्ट्रीय रक्षा का संतुलन बनाए रखा।

अनुच्छेद-36 समीक्षा: जेनेवा कन्वेंशन के तहत, कुछ देशों ने हर नए AI-सक्षम हथियार प्रणाली के लिए अनिवार्य कानूनी समीक्षाओं की संस्थागत व्यवस्था की है, ताकि यह सुनिश्चित किया जा सके कि अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन हो।

सैन्य क्षेत्र में उत्तरदायी AI पर तीसरे वैश्विक शिखर सम्मेलन (REAIM) के मुख्य परिणाम

  • ‘पाथवे-टू-एक्शन’ की स्वीकृति: वर्ष 2026 के सम्मेलन का मुख्य परिणाम “पाथवे-टू-एक्शन” घोषणा की स्वीकृति था।
    • यह दस्तावेज वर्ष 2024 के सियोल ब्लूप्रिंट फॉर एक्शन के उच्च-स्तरीय सिद्धांतों को राष्ट्रीय क्रियान्वयन के ठोस चरणों में अनुवादित करने के लिए डिजाइन किया गया था।
    • दायरा: इसमें प्रभाव आकलन, कार्यान्वयन रणनीतियाँ और भविष्य की शासन प्रणाली के तहत 20 विशिष्ट कार्यों का विवरण है।
    • मुख्य प्रावधान: यह हथियार प्रणालियों पर मानव उत्तरदायित्व को पुष्ट करता है, स्पष्ट संचालन शृंखला का पालन अनिवार्य करता है और सभी नए AI-सक्षम सैन्य क्षमताओं के लिए अनुच्छेद-36 की मजबूत कानूनी समीक्षा की आवश्यकता बताता है।
    • हस्ताक्षर की गिरावट: वर्ष 2024 के सम्मेलन में 61 देशों ने समर्थन किया था, जबकि वर्ष 2026 में 85 में से केवल 35 देशों ने घोषणा पर हस्ताक्षर किए।
  • जिम्मेदार उद्योग व्यवहार ढाँचे का शुभारंभ: संयुक्त राष्ट्र निरस्त्रीकरण अनुसंधान संस्थान (UNIDIR) और मानवाधिकार उच्चायुक्त कार्यालय (OHCHR) ने एक स्वैच्छिक ढाँचा शुरू किया, जो निजी क्षेत्र को लक्षित करता है।
    • महत्त्व: अधिकांश सैन्य AI नवाचार नागरिक तकनीकी क्षेत्र में होता है; यह ढाँचा ‘जिम्मेदार उद्योग आचरण’ के लिए आधार प्रदान करता है।
    • फोकस: यह कंपनियों को नैतिक प्रणाली डिजाइन, डेटा सत्यता और परिनियोजन के बाद निगरानी पर मार्गदर्शन देता है, ताकि एल्गोरिदमिक पक्षपात और दुरुपयोग रोका जा सके।
  • महाशक्तियों की अनिच्छा: वर्ष 2026 के सम्मेलन की एक विशेषता दुनिया की अग्रणी AI शक्तियों द्वारा प्रदर्शित “रणनीतिक अनिच्छा” थी।
    • अमेरिका और चीन: दोनों देशों ने अपेक्षाकृत छोटी प्रतिनिधिमंडल भेजे और ‘पाथवेज-टू-एक्शन’ पर हस्ताक्षर करने से मना कर दिया।
    • भारत: रणनीतिक स्वायत्तता की नीति जारी रखते हुए भारत ने घोषणा से दूरी बनाए रखी, यह तर्क देते हुए कि कानूनी बाध्यकारी उपकरण “अपरिपक्व” हैं क्योंकि तकनीक अभी विकसित हो रही है और राष्ट्रीय सुरक्षा आवश्यकताएँ बदल रही हैं।
    • प्रभाव: इसने “मध्य शक्ति” नेतृत्व का अंतर उत्पन्न किया, जिसकी आपूर्ति मुख्यतः स्पेन, नीदरलैंड, दक्षिण कोरिया और कनाडा जैसे देश कर रहे हैं और अब वे मानक एजेंडा को आगे बढ़ा रहे हैं।
  • ‘रिस्पॉन्सिबल बाय डिजाइन’ (RbD) पर ध्यान: सम्मेलन ने ‘रिस्पॉन्सिबल बाय डिजाइन’ प्रदर्शन को संस्थागत किया। यह कदम प्रणाली बनने के बाद नैतिकता से ध्यान हटाकर, कानूनी और नैतिक प्रतिबंधों को सॉफ्टवेयर विकास जीवनचक्र (SDLC) में शामिल करने की ओर केंद्रित है।
    • परिणाम: देशों को प्रोत्साहित किया गया कि वे RACI मैट्रिक्स (जिम्मेदार, उत्तरदायी, परामर्श, सूचित) अपनाएँ, ताकि AI प्रणाली के जीवन चक्र में प्रारंभिक अनुसंधान से लेकर सेवानिवृत्ति तक भूमिकाओं को स्पष्ट किया जा सके।
  • न्यूक्लियर फायरवॉल और वृद्धि जोखिम: एक महत्त्वपूर्ण चर्चा AI और परमाणु हथियारों के संबंध पर केंद्रित थी।
    • परिणाम: हस्ताक्षरकर्ताओं के बीच मजबूत सहमति बनी (हालाँकि बाध्यकारी नहीं) कि न्यूक्लियर कमांड-एंड-कंट्रोल (NC3) प्रणालियों पर मानव नियंत्रण बनाए रखा जाए, ताकि “फ्लैश युद्ध” या आकस्मिक एल्गोरिदमिक वृद्धि को रोका जा सके।
  • वैश्विक दक्षिण के लिए क्षमता निर्माण: कई देशों में सैन्य AI का मूल्यांकन करने के लिए तकनीकी अवसंरचना का अभाव होने के कारण, सम्मेलन ने क्षेत्रीय उत्कृष्टता केंद्रों की भूमिका को उजागर किया।
    • महत्त्व: परिणामों ने ज्ञान-साझाकरण केंद्रों की आवश्यकता पर बल दिया, ताकि विकासशील देश “सुरक्षा” से वंचित न रहें और भविष्य की शासन चर्चाओं से बाहर न हों।

सैन्य क्षेत्र में उत्तरदायी AI पर तीसरा वैश्विक शिखर सम्मलेन (REAIM)

सैन्य क्षेत्र में उत्तरदायी AI (REAIM) एक उच्च-स्तरीय, बहु-पक्षीय मंच के रूप में लॉन्च किया गया है, जिसका उद्देश्य युद्ध में कृत्रिम बुद्धिमत्ता के नैतिक, कानूनी और तकनीकी चुनौतियों को संबोधित करना है।

  • उत्पत्ति: पहला शिखर सम्मेलन नीदरलैंड्स के हेग में (वर्ष 2023) आयोजित हुआ, इसके बाद सियोल, दक्षिण कोरिया (2024), और स्पेन (2026) में।
  • मुख्य उद्देश्य: हथियार प्रणालियों पर “सार्थक मानव नियंत्रण” बनाए रखने और यह सुनिश्चित करने के लिए कि सैन्य AI अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन करे, वैश्विक सहमति को बढ़ावा दे।
  • मुख्य परिणाम: यह प्रक्रिया “काल-टू-एक्शन” (2023) से “ब्लूप्रिंट फॉर एक्शन” (2024) और हाल ही में “पाथवे-टू-एक्शन” (2026) तक विकसित हुई है।
    • “पाथवे-टू-एक्शन” (2026) का उद्देश्य उच्च-स्तरीय सिद्धांतों को ठोस राष्ट्रीय कार्यान्वयन ढाँचों में बदलना है।

REAIM का महत्त्व और आवश्यकता

सैन्य संघर्ष में कृत्रिम बुद्धिमत्ता (AI) की परिवर्तनकारी और संभावित अस्थिर प्रकृति के कारण REAIM ढाँचे के तहत वैश्विक मार्गदर्शक आवश्यक हैं। नैतिक, कानूनी और परिचालनात्मक आवश्यकताओं को समेकित करते हुए, REAIM की आवश्यकता निम्नलिखित कारणों से पुष्ट होती है:

  • निर्णय चक्र का संकुचन (OODA लूप): AI विशाल डेटा सेट्स को तेजी से संसाधित कर पैटर्न पहचान सकता है, जिससे OODA लूप (Observe, Orient, Decide, Act) अत्यधिक तेजी से चलता है।
    • मार्गदर्शक सुनिश्चित करते हैं कि AI केवल सहायक उपकरण रहे, स्वतः निर्णय लेने वाला न बने।
  • सटीकता और एल्गोरिदमिक पक्षपात का संतुलन: जिम्मेदारी से उपयोग किया गया AI सटीकता बढ़ा सकता है और गैर-लक्षित क्षति (Collateral Damage) को कम कर सकता है।
  • अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन: IHL का मानक है कि किसी भी हथियार प्रणाली को विभेदन (सिविलियन और सेनानियों के बीच अंतर करने की क्षमता) और सापेक्षता (सैन्य लाभ नागरिक जोखिम से अधिक होना चाहिए) के मूल सिद्धांतों का पालन करना चाहिए।
  • सार्थक मानव नियंत्रण और एजेंसी सुनिश्चित करना: REAIM का मूल लक्ष्य है कि घातक निर्णय लेने में मानव का अस्तित्त्व बना रहे।
    • सार्थक मानव नियंत्रण: यह सिद्धांत बताता है कि घातक शक्ति के उपयोग के लिए नैतिक और कानूनी जिम्मेदारी हमेशा मानव की ही होनी चाहिए।
      • यह सुनिश्चित करता है कि कमांडर किसी प्रणाली के लक्ष्य चयन के “कैसे और क्यों” को समझे (ब्लैक बॉक्स समस्या का समाधान) और तभी हमला अधिकृत करे।
    • नैतिक आवश्यकता: मानव जीवन लेने का निर्णय सचेत नैतिक निर्णय होना चाहिए, मशीन का गणितीय आउटपुट नहीं।

ब्लैक बॉक्स समस्या के बारे में

  • “ब्लैक बॉक्स” समस्या उन उन्नत AI प्रणालियों की अंतर्निहित अस्पष्टता को दर्शाती है, विशेष रूप से डीप लर्निंग और न्यूरल नेटवर्क वाले सिस्टम।
  • इन प्रणालियों में इनपुट (डेटा) और आउटपुट (निर्णय) दिखाई देते हैं, लेकिन उन निर्णयों तक पहुँचने के लिए उपयोग किए गए आंतरिक गणितीय प्रक्रियाएँ मानव समझ के लिए अत्यधिक जटिल या छिपी हुई होती हैं।
  • सैन्य क्षेत्र में, यह “ब्लैक बॉक्स” प्रकृति परिचालन दक्षता और मानव जिम्मेदारी के बीच गंभीर तनाव उत्पन्न करती है।

सैन्य AI के शासन में प्रमुख चुनौतियाँ

  • परिभाषात्मक गतिरोध और रणनीतिक अस्पष्टता: अंतरराष्ट्रीय मानक स्थापित करने में मुख्य बाधा है, घातक स्वायत्त हथियार प्रणालियों (LAWS) की सार्वभौमिक रूप से स्वीकृत परिभाषा का अभाव।
    • गतिरोध की प्रक्रिया: “स्वायत्तता” या “घातकता” की स्पष्ट परिभाषा न होने पर बाध्यकारी संधि निर्माण लगभग असंभव है।
    • रणनीतिक विभाजन
      • उन्नत देश: अक्सर “उच्च-सीमा” परिभाषाओं को प्राथमिकता देते हैं, जो शून्य मानव निगरानी वाली प्रणालियों पर केंद्रित हैं, जबकि अर्द्ध-स्वायत्त या मानव-निरीक्षित प्रणालियाँ कानूनी विनियमन से बाहर रहती हैं।
      • गैर-उन्नत देश: पूर्ण प्रतिबंध या “निम्न-सीमा” परिभाषाओं को प्राथमिकता देते हैं, ताकि वे प्रणालियाँ, जिनसे AI से असंबद्ध देशों को सैन्य हानि हो सकता है, सीमित की जा सकें।
    • किलर रोबोट: “किलर रोबोट” के रूप में जानी जाने वाली LAWS, बिना मानव हस्तक्षेप के लक्ष्य खोजने, चयन करने और उन्हें निशाना बनाने में सक्षम होती हैं।
      • स्पष्ट कानूनी सीमा की अनुपस्थिति इन प्रणालियों को मौजूदा हथियार नियंत्रण ढाँचों के तहत वर्गीकृत करने से रोकती है।
  • ड्यूल-यूज दुविधा और सत्यापन समस्याएँ: ‘ड्यूल-यूज’ दुविधा यह दर्शाती है कि नागरिक उद्देश्यों के लिए विकसित AI तकनीक को आसानी से विनाशकारी सैन्य उद्देश्यों के लिए प्रयोग किया जा सकता है।
    • नागरिक तकनीक का पुनः उपयोग: जैसे नागरिक लॉजिस्टिक्स, स्व-चालित वाहन, या स्वायत्त वितरण ड्रोन AI को आसानी से लोइटरिंग म्यूनिशन्स (स्वयंघाती ड्रोन) या बुद्धिमान निगरानी उपकरणों में परिवर्तित किया जा सकता है।
    • रासायनिक युद्ध का उदाहरण (2024): शोधकर्ताओं ने दिखाया कि एक AI को, जिसे फार्मास्यूटिकल खोज के लिए बनाया गया था, छह घंटे से कम समय में 40,000 नए रासायनिक हथियार एजेंटों के ब्लूप्रिंट बनाने के लिए विपरीत प्रयोग में लाया जा सकता है।
    • पालन-पोषण की कठिनाई: इन तकनीकों के शोध एवं अनुसंधान प्रायः निजी क्षेत्र में होते हैं, जिससे यह सत्यापित करना मुश्किल है कि कोई देश “जिम्मेदार” नागरिक AI विकसित कर रहा है या “घातक” सैन्य AI।
  • वृद्धि जोखिम और न्यूक्लियर-AI संबंध: न्यूक्लियर कमांड, कंट्रोल और कम्युनिकेशन (NC3) में AI का एकीकरण वैश्विक स्थिरता के लिए अस्तित्वगत खतरा उत्पन्न करता है।
    • आकस्मिक वृद्धि: AI-सक्षम निर्णय सहायक उपकरणों के उपयोग से ऑटोमेशन बायस उत्पन्न हो सकता है, जहाँ मानव ऑपरेटर एल्गोरिदमिक आउटपुट पर अधिक निर्भर हो जाते हैं।
      • एल्गोरिदमिक त्रुटि या जनरेटिव AI की “भ्रमना” आकस्मिक परमाणु लॉन्च या तेजी से वृद्धि को उत्प्रेरित कर सकती है, इससे पहले कि मानव राजनयिक हस्तक्षेप कर सकें।
    • रणनीतिक स्थिरता: निर्णय संबंधी लाभ पाने की प्रतिस्पर्द्धा में, “सुरक्षा दुविधा” के कारण, राज्य अप्रयुक्त AI को चेतावनी प्रणालियों में शामिल कर सकते हैं, जिससे “फ्लैश वार्स” का खतरा बढ़ता है।
  • जवाबदेही का अंतर और ब्लैक बॉक्स समस्या: यदि कोई स्वायत्त प्रणाली युद्ध अपराध करती है, तो कमांड जिम्मेदारी का मौजूदा कानूनी ढाँचा अस्पष्ट हो जाता है।
    • जिम्मेदारी का अंतर: यह स्पष्ट नहीं है कि किसे जिम्मेदार ठहराया जाए:
      • प्रोग्रामर (कोडिंग त्रुटि के लिए)
      • कमांडर (सिस्टम तैनात करने के लिए)
      • मशीन (जिसकी कोई कानूनी स्थिति नहीं है)।
    • अनुच्छेद-36 की समीक्षा: जेनेवा कन्वेंशनों के अतिरिक्त प्रोटोकॉल I के तहत, राज्यों को कानूनी रूप से अनुच्छेद-36 समीक्षा करनी आवश्यक है ताकि यह निर्धारित किया जा सके कि नए हथियार अंतरराष्ट्रीय कानून द्वारा प्रतिबंधित हैं या नहीं।
    • व्याख्यात्मक संकट: AI की “ब्लैक बॉक्स” प्रकृति, जहाँ डीप लर्निंग मॉडल के आंतरिक तर्क मानव समझ के लिए अत्यधिक जटिल होते हैं, इन कानूनी समीक्षाओं को लगभग असंभव बनाती है।
      • यदि कमांडर यह स्पष्ट नहीं कर सकता कि AI ने किसी लक्ष्य का चयन क्यों किया, तो वह अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन सुनिश्चित नहीं कर सकता है।
  • कृत्रिम बुद्धिमत्ता आधारित हथियार प्रतिस्पर्द्धा और सुरक्षा संबंधी कमी: वैश्विक सैन्य AI वर्चस्व की प्रतिस्पर्द्धा ने एक AI हथियार दौड़ को जन्म दिया है, जो सुरक्षा की तुलना में गति को प्राथमिकता देती है।
    • क्षमता में अंतर: प्रतिद्वंद्वी देशों से पीछे न रहने के लिए, राष्ट्र कठोर परीक्षण और मूल्यांकन (T&E) तथा सुरक्षा प्रोटोकॉल में कटौती करने के लिए प्रेरित होते हैं।
    • एल्गोरिदमिक पक्षपात: यदि प्रशिक्षण डेटा दोषपूर्ण या पक्षपाती है, तो AI युद्ध क्षेत्र में विनाशकारी लक्ष्य त्रुटियाँ या व्यवस्थित भेदभाव उत्पन्न कर सकता है।
      • हालिया उदाहरण (2024–2025): हाल के उच्च-तीव्रता संघर्षों में लैवेंडर और गॉस्पेल जैसे AI-सक्षम लक्ष्य प्रणाली के तैनाती ने लक्ष्य निर्माण में AI की गति बढ़ाने की क्षमता को प्रदर्शित किया।
        • हालाँकि, इन मामलों ने उच्च नागरिक हताहतों के कारण वैश्विक विरोध भी उत्पन्न किया, यह दिखाते हुए कि मानव निरीक्षण न्यूनतम होने पर मशीन आउटपुट पर निर्भर होना कितने खतरनाक हो सकता है।

भारत की पहलें

भारत ने अंतरराष्ट्रीय स्तर पर “निगरानी एवं प्रतीक्षा” (Watch-and-Wait) दृष्टिकोण अपनाया है, जबकि आक्रामक रूप से अपनी स्वदेशी क्षमताओं के आधुनिकीकरण में लगा हुआ है:

  • रक्षा कृत्रिम बुद्धिमत्ता परिषद (DAIC): यह निकाय नीति निर्देश प्रदान करता है और भारतीय सशस्त्र बलों में कृत्रिम बुद्धिमत्ता के समन्वयन की निगरानी करता है।
  • ‘आत्मनिर्भरता’ के लिए 75 AI उत्पाद: हाल ही में रक्षा मंत्रालय ने 75 कृत्रिम बुद्धिमत्ता-संचालित उत्पादों को क्रियान्वित किया, जिनमें स्वायत्त निगरानी ड्रोन और सीमा खुफिया के लिए AI आधारित भाषा अनुवादक शामिल हैं।
  • रक्षा उत्कृष्टता हेतु नवाचार (iDEX): यह पहल स्टार्ट-अप्स को द्वि-उपयोगी कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों, जैसे कि स्वार्म ड्रोन एल्गोरिदम और लाइट कॉम्बैट एयरक्राफ्ट (LCA) तेजस जैसे लड़ाकू विमानों के लिए पूर्वानुमानित रखरखाव, विकसित करने के लिए वित्तपोषण प्रदान करती है।
  • भारत AI शासन दिशा-निर्देश (2025-2026): भारत ने हाल ही में “सुरक्षा और विश्वास” पर केंद्रित सिद्धांत-आधारित ढाँचा जारी किया, जो यह सुनिश्चित करता है कि कृत्रिम बुद्धिमत्ता नवाचार राष्ट्रीय मूल्यों या मानव सुरक्षा से समझौता न करे।
  • संयुक्त राष्ट्र CCW में स्थिति: संयुक्त राष्ट्र के कुछ पारंपरिक हथियारों पर कन्वेंशन (CCW) में भारत LAWS आधारित सरकारी विशेषज्ञ समूह (GGE) की अध्यक्षता और भागीदारी करता है, और सैन्य आवश्यकता तथा मानवीय अनिवार्यताओं के बीच संतुलन बनाए रखता है।

वैश्विक पहल और सर्वोत्तम वैश्विक प्रथाएँ

सैन्य कृत्रिम बुद्धिमत्ता का शासन उच्च-स्तरीय राजनीतिक घोषणाओं, मानवीय पक्ष और “सुरक्षा-से-निर्माण” तकनीकी मानकों के मिश्रण के माध्यम से विकसित हो रहा है। ये पहल तीव्र नवाचार और अंतरराष्ट्रीय संधि निर्माण की धीमी गति के मध्य के समयांतराल को समाप्त करने के लक्ष्य निर्धारित करती हैं।

  • कृत्रिम बुद्धिमत्ता के जिम्मेदार सैन्य उपयोग पर अमेरिका की राजनीतिक घोषणा (2023): वर्ष 2026 तक 50 से अधिक देशों द्वारा समर्थित, यह ढाँचा रक्षा विभाग (DoD) और अंतरराष्ट्रीय सहयोगियों के लिए मानदंड स्थापित करने का एक प्रमुख गैर-बाध्यकारी प्रयास है।
    • मूल सिद्धांत: इसमें दस मार्गदर्शक सिद्धांत शामिल हैं, जिनमें यह आवश्यक है कि कृत्रिम बुद्धिमत्ता प्रणालियों के स्पष्ट और परिभाषित उपयोग संभव हो सके और उनका संपूर्ण जीवनचक्र में कठोर परीक्षण और मूल्यांकन (T&E) किया जाए।
    • वरिष्ठ-स्तरीय निगरानी: यह अनिवार्य करता है कि “उच्च-परिणाम” वाले अनुप्रयोग—जैसे बल प्रयोग से संबंधित—तैनाती से पूर्व वरिष्ठ-स्तरीय मानवीय समीक्षा के अधीन हों, ताकि स्वचालन पक्षपात को न्यूनतम किया जा सके।
    • श्रेष्ठ वैश्विक अभ्यास: यह घोषणा एक “अभ्यास समुदाय” के रूप में कार्य करती है, जहाँ सहयोग करने वाले देश पारदर्शी और ऑडिट योग्य कृत्रिम बुद्धिमत्ता संरचनाओं के निर्माण के लिए अपनी कार्यप्रणालियाँ साझा करते हैं।
  • “सियोल ढाँचा” और कार्यान्वयन रूपरेखा (2024): यह ढाँचा, जो दक्षिण कोरिया में आयोजित REAIM 2024 शिखर बैठक में विकसित हुआ, चर्चा को सारगर्भित नैतिकता से राष्ट्रीय उत्तरदायित्व की ओर ले गया।
    • कार्यान्वयन रूपरेखा: 61 देशों द्वारा अंगीकृत, यह रूपरेखा राज्यों को अपने राष्ट्रीय सैन्य सिद्धांतों में नैतिक मानकों को एकीकृत करने के लिए मार्गदर्शन प्रदान करती है।
    • प्रमुख नवाचार: यह राज्यों को राष्ट्रीय “आचार संहिता” अपनाने के लिए प्रोत्साहित करती है, जो सैन्य कृत्रिम बुद्धिमत्ता की खरीद में पारदर्शिता सुनिश्चित करती है और यह सुनिश्चित करती है कि निजी क्षेत्र के संविदाकार भी सैन्य नैतिक मानकों का अनुपालन करें।
    • दृष्टिकोणों का समावेश: यह ढाँचा “युवा और शांति” के दृष्टिकोण को शामिल करने के लिए विशेष रूप से उल्लेखनीय रहा, यह स्वीकार करते हुए कि कृत्रिम बुद्धिमत्ता युद्ध का दीर्घकालिक प्रभाव आने वाली पीढ़ियों पर पड़ेगा।
  • नाटो की “निर्माण-से-उत्तरदायी” (RbD) रणनीति: उत्तरी अटलांटिक संधि संगठन (NATO) ने अपने मूल्यों से समझौता किए बिना तकनीकी बढ़त बनाए रखने हेतु “निर्माण से उत्तरदायी” दर्शन की अग्रणी पहल की है।
    • नैतिकता का कठोर अंतःसन्निवेशन: निर्माण से उत्तरदायी दृष्टिकोण विधिक एवं नैतिक प्रतिबंधों को सीधे सॉफ्टवेयर विकास जीवनचक्र में समाहित करने का समर्थन करता है। इसका आशय यह है कि अनुसंधान चरण से ही कृत्रिम बुद्धिमत्ता में “अग्नि-दीवारें” और “तर्क द्वार” कूटबद्ध किए जाएँ।
    • उपयोग के छह सिद्धांत: नाटो की कृत्रिम बुद्धिमत्ता रणनीति छह स्तंभों पर आधारित है— विधिसंगतता, उत्तरदायित्व, विश्वसनीयता, शासनीयता और पक्षपात न्यूनीकरण।
    • प्रमाणीकरण प्रोटोकॉल: नाटो मानकीकृत प्रमाणीकरण प्रक्रियाएँ विकसित कर रहा है, ताकि किसी एक सदस्य राष्ट्र में विकसित कृत्रिम बुद्धिमत्ता प्रणाली गठबंधन के अन्य देशों के साथ विधिक और तकनीकी रूप से “अंतःप्रचालनीय” सुनिश्चित की जा सके।
  • अनुच्छेद-36 की समीक्षाएँ-विधिक प्रवेशद्वार: जेनेवा कन्वेंशनों के अतिरिक्त प्रोटोकॉल-I के अनुच्छेद-36 के अंतर्गत, राज्यों पर यह विधिक दायित्व है कि वे यह निर्धारित करें कि कोई “नया हथियार, साधन अथवा युद्ध की पद्धति” अंतरराष्ट्रीय विधि द्वारा निषिद्ध तो नहीं है।
    • अनिवार्य कानूनी लेखा-परीक्षण: कुछ देश अब कृत्रिम बुद्धिमत्ता आधारित हथियार प्रणालियों के लिए विशेष रूप से अनिवार्य कानूनी समीक्षाओं को संस्थागत बना रहे हैं। इसके तहत विधि विशेषज्ञों को डेटा वैज्ञानिकों के साथ मिलकर यह सुनिश्चित करना होता है कि प्रणाली अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन कर रही है।
    • ‘लर्निंग एल्गोरिदम’ की चुनौती: एक उभरती हुई सर्वोत्तम प्रथा “निरंतर समीक्षा” मॉडल है।
      • पारंपरिक हथियारों के विपरीत, कृत्रिम बुद्धिमत्ता आधारित प्रणाली तैनाती के बाद भी “सीख” सकती है और अपना व्यवहार परिवर्तित कर सकती है। इसलिए, युद्धक्षेत्र में उपयोग के बाद भी समय-समय पर कानूनी पुनर्मूल्यांकन आवश्यक है।
  • अंतरराष्ट्रीय रेड क्रॉस समिति की “द्वि-स्तरीय” संस्तुतियाँ: अंतरराष्ट्रीय रेड क्रॉस समिति वैश्विक विमर्श के लिए नैतिक और मानवीय दिशा-सूचक प्रदान करती है।
    • स्तर 1 — निषेध: समिति उन घातक स्वायत्त हथियार प्रणालियों पर पूर्ण प्रतिबंध की माँग करती है, जो अप्रत्याशित (ब्लैक बॉक्स) हों या जिन्हें बिना किसी मानवीय सहभागिता के सीधे मनुष्यों को लक्ष्य बनाने हेतु अभिकल्पित किया गया हो।
    • स्तर 2 — प्रतिबंध: अन्य सभी स्वायत्त प्रणालियों के लिए समिति संचालन के समय और स्थान पर कठोर सीमाएँ निर्धारित करने का समर्थन करती है, ताकि मनुष्य सार्थक मानवीय नियंत्रण बनाए रख सकें और अनपेक्षित नागरिक क्षति को रोका जा सके।

आगे की राह

जैसे-जैसे वैश्विक युद्ध परिदृश्य मशीन-गति संचालित अभियानों की ओर अग्रसर हो रहा है, विनियमन के प्रति पारंपरिक “प्रतीक्षा और अवलोकन” दृष्टिकोण दायित्व में परिवर्तित होता जा रहा है। मानव सुरक्षा और रणनीतिक स्थिरता पर केंद्रित एक संतुलित एवं चरणबद्ध रोडमैप की आवश्यकता है, जिससे इस संक्रमण का सुचारु संचालन किया जा सके।

  • चरणबद्ध मानक विकास- सौम्य विधि से बाध्यकारी विधि की ओर: वर्तमान परिभाषात्मक गतिरोध तथा अनुसंधान एवं विकास की तीव्र गति को देखते हुए, तत्काल बाध्यकारी संधि की माँग करना प्रायः प्रतिकूल सिद्ध हो सकता है।
    • स्वैच्छिक आचार संहिता: प्रारंभिक चरण में राज्यों को विश्वास निर्माण हेतु एक गैर-बाध्यकारी आचार संहिता पर ध्यान केंद्रित करना चाहिए।
      • इसमें अभियानों के क्षेत्र में तैनाती से पूर्व कृत्रिम बुद्धिमत्ता प्रणालियों के सत्यापन और प्रमाणीकरण के लिए साझा मानक सम्मिलित हों।
    • प्रथम चरण में मानक ढाँचे की स्थापना: वैश्विक मानदंडों की स्थापना — जैसे पूर्णतः स्वायत्त घातक लक्ष्यीकरण के विरुद्ध साझा “निषेध भावना” गलत आकलनों को रोकते हुए तकनीकी प्रगति के लिए स्थान सुरक्षित रखती है।
      • जब ये मानदंड स्थिर हो जाएँ, तब वे भविष्य की बाध्यकारी संधियों के लिए आधार बन सकते हैं।
  • नाभिकीय “अवरोध रेखाओं” और ‘न्यूक्लियर फायरवॉल’ की स्थापना: तात्कालिक प्राथमिकता नाभिकीय और कृत्रिम बुद्धिमत्ता के अंतर्संबंध पर केंद्रित होनी चाहिए। एल्गोरिदमिक नाभिकीय युद्ध की संभावना को रोकने हेतु कृत्रिम बुद्धिमत्ता को रणनीतिक प्रक्षेपण निर्णयों से पूर्णतः पृथक रखा जाना अनिवार्य है।
    • पूर्ण निषेध: एक वैश्विक समझौते की आवश्यकता है, जो ‘न्यूक्लियर फायरवॉल’ को यह सुनिश्चित करते हुए स्थापित करे, कि कृत्रिम बुद्धिमत्ता प्रणालियों को कभी भी नाभिकीय कमान, नियंत्रण और संचार पर स्वायत्त नियंत्रण न प्रदान किया जाए।
    • सुरक्षित निर्णय-सहायता: यद्यपि कृत्रिम बुद्धिमत्ता प्रारंभिक चेतावनी संबंधी आँकड़ों के प्रसंस्करण में सहायक हो सकती है, तथापि उन्नयन का अंतिम निर्णय “मानव-परिपथ में” कार्य के रूप में ही बना रहना चाहिए।
  • जोखिम-आधारित पदानुक्रम का कार्यान्वयन: सभी सैन्य कृत्रिम बुद्धिमत्ता प्रणालियाँ समान रूप से जोखिमपूर्ण नहीं हैं। प्रभावी विनियमन हेतु राज्यों को “जोखिम मैट्रिक्स” अपनानी चाहिए, जिसके अंतर्गत नियंत्रण प्रणाली की संभावित हानि के अनुपात में निर्धारित किए जाएँ।
    • उच्च-जोखिम कृत्रिम बुद्धिमत्ता (घातक लक्ष्यीकरण): इन प्रणालियों पर कठोर पारदर्शिता आवश्यकताएँ, अनिवार्य मानव-पर्यवेक्षण और अनुच्छेद-36 की समीक्षाएँ लागू होनी चाहिए।
    • निम्न-जोखिम कृत्रिम बुद्धिमत्ता (लॉजिस्टिक्स एवं रखरखाव): लड़ाकू विमानों के लिए पूर्वानुमानित रखरखाव या आपूर्ति शृंखला अनुकूलन जैसे अनुप्रयोगों को सरल विनियामक ढाँचों के अंतर्गत संचालित किया जा सकता है, जिससे नवाचार और परिचालन दक्षता को प्रोत्साहन मिले।
  • जीवनचक्र-आधारित अनुच्छेद-36 समीक्षाओं का संस्थानीकरण: पारंपरिक हथियार समीक्षाएँ सामान्यतः एक बार की प्रक्रिया होती हैं। किंतु अधिगमशील एल्गोरिदम समय के साथ परिवर्तित होते हैं, जिससे एक नवीन दृष्टिकोण की आवश्यकता उत्पन्न होती है।
    • आवर्तक विधिक लेखा-परीक्षण: राष्ट्रों को निरंतर अनुच्छेद-36 समीक्षाएँ संचालित करने के सर्वोत्तम अभ्यास साझा करने चाहिए। इसमें प्रत्येक सॉफ्टवेयर का अद्यतन अथवा आधारभूत मॉडल द्वारा नवीन युद्धक्षेत्रीय आँकड़ों से अधिगम के पश्चात् पुनर्मूल्यांकन सम्मिलित हो।
    • बहुविषयी दल: विधिक समीक्षाओं को केवल विधिक अभ्यास तक सीमित न रखकर बहुविषयी लेखा-परीक्षण में रूपांतरित किया जाना चाहिए, जिसमें डेटा वैज्ञानिक, नैतिकताविद और सैन्य कमांडर सम्मिलित हों।
  • शस्त्र स्पर्द्धा की रोकथाम हेतु विश्वास-निर्माण उपाय: पिछड़ने के भय से प्रेरित अनियंत्रित कृत्रिम बुद्धिमत्ता आधारित शस्त्र स्पर्द्धा को रोकने के लिए राज्यों को पारदर्शिता पहलों में संलग्न होना चाहिए।
    • स्वैच्छिक डेटा साझाकरण: राज्य कृत्रिम बुद्धिमत्ता सुरक्षा प्रोटोकॉल तथा परीक्षण एवं मूल्यांकन प्रक्रियाओं पर उच्च-स्तरीय जानकारी साझा कर सकते हैं, बिना संवेदनशील तकनीकी गोपनीयताओं को प्रदर्शित किए।
    • एल्गोरिदमिक त्रुटियों हेतु त्वरित संपर्क तंत्र: विरोधी राज्यों के बीच अनपेक्षित कृत्रिम बुद्धिमत्ता व्यवहार या आकस्मिक उग्रता की त्वरित स्पष्टता हेतु समर्पित संचार माध्यम स्थापित किए जाने चाहिए, जैसा कि शीतयुद्ध कालीन “हॉटलाइन” वार्ता व्यवस्था में निहित था।

निष्कर्ष

21वीं सदी में युद्ध में कृत्रिम बुद्धिमत्ता का एकीकरण एक अनिवार्य यथार्थ है। भारत के लिए रणनीतिक स्वायत्तता बनाए रखने का अर्थ है सशक्त कृत्रिम बुद्धिमत्ता क्षमताओं का विकास करना, साथ ही सार्थक मानवीय नियंत्रण पर वैश्विक विमर्श का नेतृत्व करना। अंतरराष्ट्रीय मानवीय विधि की रक्षा करते हुए नवाचार को बाधित न करने वाले सुरक्षा-नियंत्रणों का समर्थन कर, भारत यह सुनिश्चित कर सकता है कि प्रौद्योगिकी सुरक्षा का साधन बनी रहे, न कि अनपेक्षित आपदा का कारण।

Need help preparing for UPSC or State PSCs?

Connect with our experts to get free counselling & start preparing

Aiming for UPSC?

Download Our App

      
Quick Revise Now !
AVAILABLE FOR DOWNLOAD SOON
UDAAN PRELIMS WALLAH
Comprehensive coverage with a concise format
Integration of PYQ within the booklet
Designed as per recent trends of Prelims questions
हिंदी में भी उपलब्ध
Quick Revise Now !
UDAAN PRELIMS WALLAH
Comprehensive coverage with a concise format
Integration of PYQ within the booklet
Designed as per recent trends of Prelims questions
हिंदी में भी उपलब्ध

<div class="new-fform">







    </div>

    Subscribe our Newsletter
    Sign up now for our exclusive newsletter and be the first to know about our latest Initiatives, Quality Content, and much more.
    *Promise! We won't spam you.
    Yes! I want to Subscribe.