100% तक छात्रवृत्ति जीतें

रजिस्टर करें

सैन्य क्षेत्र में AI और नियंत्रण ढाँचों की तात्कालिकता

Lokesh Pal February 20, 2026 03:21 5 0

संदर्भ

हाल ही में सैन्य क्षेत्र में उत्तरदायी AI पर तीसरा वैश्विक शिखर सम्मलेन (REAIM), कॉरुना, स्पेन में संपन्न हुआ, जिसने व्यापक नैतिक सिद्धांतों से व्यावहारिक संचालन की ओर महत्त्वपूर्ण परिवर्तन को चिह्नित किया।

संबंधित तथ्य

  • वैश्विक नियमन और रणनीतिक सुरक्षा के बीच विभाजन प्रदर्शित हुआ है, जो भारत की ‘पाथवे-टू-एक्शन’ घोषणा से दूरी बनाए रखने में परिलक्षित होता है, जहाँ अमेरिका और चीन के साथ भारत ने तकनीकी संप्रभुता, नैतिकता तथा राष्ट्रीय रक्षा का संतुलन बनाए रखा।

अनुच्छेद-36 समीक्षा: जेनेवा कन्वेंशन के तहत, कुछ देशों ने हर नए AI-सक्षम हथियार प्रणाली के लिए अनिवार्य कानूनी समीक्षाओं की संस्थागत व्यवस्था की है, ताकि यह सुनिश्चित किया जा सके कि अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन हो।

सैन्य क्षेत्र में उत्तरदायी AI पर तीसरे वैश्विक शिखर सम्मेलन (REAIM) के मुख्य परिणाम

  • ‘पाथवे-टू-एक्शन’ की स्वीकृति: वर्ष 2026 के सम्मेलन का मुख्य परिणाम “पाथवे-टू-एक्शन” घोषणा की स्वीकृति था।
    • यह दस्तावेज वर्ष 2024 के सियोल ब्लूप्रिंट फॉर एक्शन के उच्च-स्तरीय सिद्धांतों को राष्ट्रीय क्रियान्वयन के ठोस चरणों में अनुवादित करने के लिए डिजाइन किया गया था।
    • दायरा: इसमें प्रभाव आकलन, कार्यान्वयन रणनीतियाँ और भविष्य की शासन प्रणाली के तहत 20 विशिष्ट कार्यों का विवरण है।
    • मुख्य प्रावधान: यह हथियार प्रणालियों पर मानव उत्तरदायित्व को पुष्ट करता है, स्पष्ट संचालन शृंखला का पालन अनिवार्य करता है और सभी नए AI-सक्षम सैन्य क्षमताओं के लिए अनुच्छेद-36 की मजबूत कानूनी समीक्षा की आवश्यकता बताता है।
    • हस्ताक्षर की गिरावट: वर्ष 2024 के सम्मेलन में 61 देशों ने समर्थन किया था, जबकि वर्ष 2026 में 85 में से केवल 35 देशों ने घोषणा पर हस्ताक्षर किए।
  • जिम्मेदार उद्योग व्यवहार ढाँचे का शुभारंभ: संयुक्त राष्ट्र निरस्त्रीकरण अनुसंधान संस्थान (UNIDIR) और मानवाधिकार उच्चायुक्त कार्यालय (OHCHR) ने एक स्वैच्छिक ढाँचा शुरू किया, जो निजी क्षेत्र को लक्षित करता है।
    • महत्त्व: अधिकांश सैन्य AI नवाचार नागरिक तकनीकी क्षेत्र में होता है; यह ढाँचा ‘जिम्मेदार उद्योग आचरण’ के लिए आधार प्रदान करता है।
    • फोकस: यह कंपनियों को नैतिक प्रणाली डिजाइन, डेटा सत्यता और परिनियोजन के बाद निगरानी पर मार्गदर्शन देता है, ताकि एल्गोरिदमिक पक्षपात और दुरुपयोग रोका जा सके।
  • महाशक्तियों की अनिच्छा: वर्ष 2026 के सम्मेलन की एक विशेषता दुनिया की अग्रणी AI शक्तियों द्वारा प्रदर्शित “रणनीतिक अनिच्छा” थी।
    • अमेरिका और चीन: दोनों देशों ने अपेक्षाकृत छोटी प्रतिनिधिमंडल भेजे और ‘पाथवेज-टू-एक्शन’ पर हस्ताक्षर करने से मना कर दिया।
    • भारत: रणनीतिक स्वायत्तता की नीति जारी रखते हुए भारत ने घोषणा से दूरी बनाए रखी, यह तर्क देते हुए कि कानूनी बाध्यकारी उपकरण “अपरिपक्व” हैं क्योंकि तकनीक अभी विकसित हो रही है और राष्ट्रीय सुरक्षा आवश्यकताएँ बदल रही हैं।
    • प्रभाव: इसने “मध्य शक्ति” नेतृत्व का अंतर उत्पन्न किया, जिसकी आपूर्ति मुख्यतः स्पेन, नीदरलैंड, दक्षिण कोरिया और कनाडा जैसे देश कर रहे हैं और अब वे मानक एजेंडा को आगे बढ़ा रहे हैं।
  • ‘रिस्पॉन्सिबल बाय डिजाइन’ (RbD) पर ध्यान: सम्मेलन ने ‘रिस्पॉन्सिबल बाय डिजाइन’ प्रदर्शन को संस्थागत किया। यह कदम प्रणाली बनने के बाद नैतिकता से ध्यान हटाकर, कानूनी और नैतिक प्रतिबंधों को सॉफ्टवेयर विकास जीवनचक्र (SDLC) में शामिल करने की ओर केंद्रित है।
    • परिणाम: देशों को प्रोत्साहित किया गया कि वे RACI मैट्रिक्स (जिम्मेदार, उत्तरदायी, परामर्श, सूचित) अपनाएँ, ताकि AI प्रणाली के जीवन चक्र में प्रारंभिक अनुसंधान से लेकर सेवानिवृत्ति तक भूमिकाओं को स्पष्ट किया जा सके।
  • न्यूक्लियर फायरवॉल और वृद्धि जोखिम: एक महत्त्वपूर्ण चर्चा AI और परमाणु हथियारों के संबंध पर केंद्रित थी।
    • परिणाम: हस्ताक्षरकर्ताओं के बीच मजबूत सहमति बनी (हालाँकि बाध्यकारी नहीं) कि न्यूक्लियर कमांड-एंड-कंट्रोल (NC3) प्रणालियों पर मानव नियंत्रण बनाए रखा जाए, ताकि “फ्लैश युद्ध” या आकस्मिक एल्गोरिदमिक वृद्धि को रोका जा सके।
  • वैश्विक दक्षिण के लिए क्षमता निर्माण: कई देशों में सैन्य AI का मूल्यांकन करने के लिए तकनीकी अवसंरचना का अभाव होने के कारण, सम्मेलन ने क्षेत्रीय उत्कृष्टता केंद्रों की भूमिका को उजागर किया।
    • महत्त्व: परिणामों ने ज्ञान-साझाकरण केंद्रों की आवश्यकता पर बल दिया, ताकि विकासशील देश “सुरक्षा” से वंचित न रहें और भविष्य की शासन चर्चाओं से बाहर न हों।

सैन्य क्षेत्र में उत्तरदायी AI पर तीसरा वैश्विक शिखर सम्मलेन (REAIM)

सैन्य क्षेत्र में उत्तरदायी AI (REAIM) एक उच्च-स्तरीय, बहु-पक्षीय मंच के रूप में लॉन्च किया गया है, जिसका उद्देश्य युद्ध में कृत्रिम बुद्धिमत्ता के नैतिक, कानूनी और तकनीकी चुनौतियों को संबोधित करना है।

  • उत्पत्ति: पहला शिखर सम्मेलन नीदरलैंड्स के हेग में (वर्ष 2023) आयोजित हुआ, इसके बाद सियोल, दक्षिण कोरिया (2024), और स्पेन (2026) में।
  • मुख्य उद्देश्य: हथियार प्रणालियों पर “सार्थक मानव नियंत्रण” बनाए रखने और यह सुनिश्चित करने के लिए कि सैन्य AI अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन करे, वैश्विक सहमति को बढ़ावा दे।
  • मुख्य परिणाम: यह प्रक्रिया “काल-टू-एक्शन” (2023) से “ब्लूप्रिंट फॉर एक्शन” (2024) और हाल ही में “पाथवे-टू-एक्शन” (2026) तक विकसित हुई है।
    • “पाथवे-टू-एक्शन” (2026) का उद्देश्य उच्च-स्तरीय सिद्धांतों को ठोस राष्ट्रीय कार्यान्वयन ढाँचों में बदलना है।

REAIM का महत्त्व और आवश्यकता

सैन्य संघर्ष में कृत्रिम बुद्धिमत्ता (AI) की परिवर्तनकारी और संभावित अस्थिर प्रकृति के कारण REAIM ढाँचे के तहत वैश्विक मार्गदर्शक आवश्यक हैं। नैतिक, कानूनी और परिचालनात्मक आवश्यकताओं को समेकित करते हुए, REAIM की आवश्यकता निम्नलिखित कारणों से पुष्ट होती है:

  • निर्णय चक्र का संकुचन (OODA लूप): AI विशाल डेटा सेट्स को तेजी से संसाधित कर पैटर्न पहचान सकता है, जिससे OODA लूप (Observe, Orient, Decide, Act) अत्यधिक तेजी से चलता है।
    • मार्गदर्शक सुनिश्चित करते हैं कि AI केवल सहायक उपकरण रहे, स्वतः निर्णय लेने वाला न बने।
  • सटीकता और एल्गोरिदमिक पक्षपात का संतुलन: जिम्मेदारी से उपयोग किया गया AI सटीकता बढ़ा सकता है और गैर-लक्षित क्षति (Collateral Damage) को कम कर सकता है।
  • अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन: IHL का मानक है कि किसी भी हथियार प्रणाली को विभेदन (सिविलियन और सेनानियों के बीच अंतर करने की क्षमता) और सापेक्षता (सैन्य लाभ नागरिक जोखिम से अधिक होना चाहिए) के मूल सिद्धांतों का पालन करना चाहिए।
  • सार्थक मानव नियंत्रण और एजेंसी सुनिश्चित करना: REAIM का मूल लक्ष्य है कि घातक निर्णय लेने में मानव का अस्तित्त्व बना रहे।
    • सार्थक मानव नियंत्रण: यह सिद्धांत बताता है कि घातक शक्ति के उपयोग के लिए नैतिक और कानूनी जिम्मेदारी हमेशा मानव की ही होनी चाहिए।
      • यह सुनिश्चित करता है कि कमांडर किसी प्रणाली के लक्ष्य चयन के “कैसे और क्यों” को समझे (ब्लैक बॉक्स समस्या का समाधान) और तभी हमला अधिकृत करे।
    • नैतिक आवश्यकता: मानव जीवन लेने का निर्णय सचेत नैतिक निर्णय होना चाहिए, मशीन का गणितीय आउटपुट नहीं।

ब्लैक बॉक्स समस्या के बारे में

  • “ब्लैक बॉक्स” समस्या उन उन्नत AI प्रणालियों की अंतर्निहित अस्पष्टता को दर्शाती है, विशेष रूप से डीप लर्निंग और न्यूरल नेटवर्क वाले सिस्टम।
  • इन प्रणालियों में इनपुट (डेटा) और आउटपुट (निर्णय) दिखाई देते हैं, लेकिन उन निर्णयों तक पहुँचने के लिए उपयोग किए गए आंतरिक गणितीय प्रक्रियाएँ मानव समझ के लिए अत्यधिक जटिल या छिपी हुई होती हैं।
  • सैन्य क्षेत्र में, यह “ब्लैक बॉक्स” प्रकृति परिचालन दक्षता और मानव जिम्मेदारी के बीच गंभीर तनाव उत्पन्न करती है।

सैन्य AI के शासन में प्रमुख चुनौतियाँ

  • परिभाषात्मक गतिरोध और रणनीतिक अस्पष्टता: अंतरराष्ट्रीय मानक स्थापित करने में मुख्य बाधा है, घातक स्वायत्त हथियार प्रणालियों (LAWS) की सार्वभौमिक रूप से स्वीकृत परिभाषा का अभाव।
    • गतिरोध की प्रक्रिया: “स्वायत्तता” या “घातकता” की स्पष्ट परिभाषा न होने पर बाध्यकारी संधि निर्माण लगभग असंभव है।
    • रणनीतिक विभाजन
      • उन्नत देश: अक्सर “उच्च-सीमा” परिभाषाओं को प्राथमिकता देते हैं, जो शून्य मानव निगरानी वाली प्रणालियों पर केंद्रित हैं, जबकि अर्द्ध-स्वायत्त या मानव-निरीक्षित प्रणालियाँ कानूनी विनियमन से बाहर रहती हैं।
      • गैर-उन्नत देश: पूर्ण प्रतिबंध या “निम्न-सीमा” परिभाषाओं को प्राथमिकता देते हैं, ताकि वे प्रणालियाँ, जिनसे AI से असंबद्ध देशों को सैन्य हानि हो सकता है, सीमित की जा सकें।
    • किलर रोबोट: “किलर रोबोट” के रूप में जानी जाने वाली LAWS, बिना मानव हस्तक्षेप के लक्ष्य खोजने, चयन करने और उन्हें निशाना बनाने में सक्षम होती हैं।
      • स्पष्ट कानूनी सीमा की अनुपस्थिति इन प्रणालियों को मौजूदा हथियार नियंत्रण ढाँचों के तहत वर्गीकृत करने से रोकती है।
  • ड्यूल-यूज दुविधा और सत्यापन समस्याएँ: ‘ड्यूल-यूज’ दुविधा यह दर्शाती है कि नागरिक उद्देश्यों के लिए विकसित AI तकनीक को आसानी से विनाशकारी सैन्य उद्देश्यों के लिए प्रयोग किया जा सकता है।
    • नागरिक तकनीक का पुनः उपयोग: जैसे नागरिक लॉजिस्टिक्स, स्व-चालित वाहन, या स्वायत्त वितरण ड्रोन AI को आसानी से लोइटरिंग म्यूनिशन्स (स्वयंघाती ड्रोन) या बुद्धिमान निगरानी उपकरणों में परिवर्तित किया जा सकता है।
    • रासायनिक युद्ध का उदाहरण (2024): शोधकर्ताओं ने दिखाया कि एक AI को, जिसे फार्मास्यूटिकल खोज के लिए बनाया गया था, छह घंटे से कम समय में 40,000 नए रासायनिक हथियार एजेंटों के ब्लूप्रिंट बनाने के लिए विपरीत प्रयोग में लाया जा सकता है।
    • पालन-पोषण की कठिनाई: इन तकनीकों के शोध एवं अनुसंधान प्रायः निजी क्षेत्र में होते हैं, जिससे यह सत्यापित करना मुश्किल है कि कोई देश “जिम्मेदार” नागरिक AI विकसित कर रहा है या “घातक” सैन्य AI।
  • वृद्धि जोखिम और न्यूक्लियर-AI संबंध: न्यूक्लियर कमांड, कंट्रोल और कम्युनिकेशन (NC3) में AI का एकीकरण वैश्विक स्थिरता के लिए अस्तित्वगत खतरा उत्पन्न करता है।
    • आकस्मिक वृद्धि: AI-सक्षम निर्णय सहायक उपकरणों के उपयोग से ऑटोमेशन बायस उत्पन्न हो सकता है, जहाँ मानव ऑपरेटर एल्गोरिदमिक आउटपुट पर अधिक निर्भर हो जाते हैं।
      • एल्गोरिदमिक त्रुटि या जनरेटिव AI की “भ्रमना” आकस्मिक परमाणु लॉन्च या तेजी से वृद्धि को उत्प्रेरित कर सकती है, इससे पहले कि मानव राजनयिक हस्तक्षेप कर सकें।
    • रणनीतिक स्थिरता: निर्णय संबंधी लाभ पाने की प्रतिस्पर्द्धा में, “सुरक्षा दुविधा” के कारण, राज्य अप्रयुक्त AI को चेतावनी प्रणालियों में शामिल कर सकते हैं, जिससे “फ्लैश वार्स” का खतरा बढ़ता है।
  • जवाबदेही का अंतर और ब्लैक बॉक्स समस्या: यदि कोई स्वायत्त प्रणाली युद्ध अपराध करती है, तो कमांड जिम्मेदारी का मौजूदा कानूनी ढाँचा अस्पष्ट हो जाता है।
    • जिम्मेदारी का अंतर: यह स्पष्ट नहीं है कि किसे जिम्मेदार ठहराया जाए:
      • प्रोग्रामर (कोडिंग त्रुटि के लिए)
      • कमांडर (सिस्टम तैनात करने के लिए)
      • मशीन (जिसकी कोई कानूनी स्थिति नहीं है)।
    • अनुच्छेद-36 की समीक्षा: जेनेवा कन्वेंशनों के अतिरिक्त प्रोटोकॉल I के तहत, राज्यों को कानूनी रूप से अनुच्छेद-36 समीक्षा करनी आवश्यक है ताकि यह निर्धारित किया जा सके कि नए हथियार अंतरराष्ट्रीय कानून द्वारा प्रतिबंधित हैं या नहीं।
    • व्याख्यात्मक संकट: AI की “ब्लैक बॉक्स” प्रकृति, जहाँ डीप लर्निंग मॉडल के आंतरिक तर्क मानव समझ के लिए अत्यधिक जटिल होते हैं, इन कानूनी समीक्षाओं को लगभग असंभव बनाती है।
      • यदि कमांडर यह स्पष्ट नहीं कर सकता कि AI ने किसी लक्ष्य का चयन क्यों किया, तो वह अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन सुनिश्चित नहीं कर सकता है।
  • कृत्रिम बुद्धिमत्ता आधारित हथियार प्रतिस्पर्द्धा और सुरक्षा संबंधी कमी: वैश्विक सैन्य AI वर्चस्व की प्रतिस्पर्द्धा ने एक AI हथियार दौड़ को जन्म दिया है, जो सुरक्षा की तुलना में गति को प्राथमिकता देती है।
    • क्षमता में अंतर: प्रतिद्वंद्वी देशों से पीछे न रहने के लिए, राष्ट्र कठोर परीक्षण और मूल्यांकन (T&E) तथा सुरक्षा प्रोटोकॉल में कटौती करने के लिए प्रेरित होते हैं।
    • एल्गोरिदमिक पक्षपात: यदि प्रशिक्षण डेटा दोषपूर्ण या पक्षपाती है, तो AI युद्ध क्षेत्र में विनाशकारी लक्ष्य त्रुटियाँ या व्यवस्थित भेदभाव उत्पन्न कर सकता है।
      • हालिया उदाहरण (2024–2025): हाल के उच्च-तीव्रता संघर्षों में लैवेंडर और गॉस्पेल जैसे AI-सक्षम लक्ष्य प्रणाली के तैनाती ने लक्ष्य निर्माण में AI की गति बढ़ाने की क्षमता को प्रदर्शित किया।
        • हालाँकि, इन मामलों ने उच्च नागरिक हताहतों के कारण वैश्विक विरोध भी उत्पन्न किया, यह दिखाते हुए कि मानव निरीक्षण न्यूनतम होने पर मशीन आउटपुट पर निर्भर होना कितने खतरनाक हो सकता है।

भारत की पहलें

भारत ने अंतरराष्ट्रीय स्तर पर “निगरानी एवं प्रतीक्षा” (Watch-and-Wait) दृष्टिकोण अपनाया है, जबकि आक्रामक रूप से अपनी स्वदेशी क्षमताओं के आधुनिकीकरण में लगा हुआ है:

  • रक्षा कृत्रिम बुद्धिमत्ता परिषद (DAIC): यह निकाय नीति निर्देश प्रदान करता है और भारतीय सशस्त्र बलों में कृत्रिम बुद्धिमत्ता के समन्वयन की निगरानी करता है।
  • ‘आत्मनिर्भरता’ के लिए 75 AI उत्पाद: हाल ही में रक्षा मंत्रालय ने 75 कृत्रिम बुद्धिमत्ता-संचालित उत्पादों को क्रियान्वित किया, जिनमें स्वायत्त निगरानी ड्रोन और सीमा खुफिया के लिए AI आधारित भाषा अनुवादक शामिल हैं।
  • रक्षा उत्कृष्टता हेतु नवाचार (iDEX): यह पहल स्टार्ट-अप्स को द्वि-उपयोगी कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों, जैसे कि स्वार्म ड्रोन एल्गोरिदम और लाइट कॉम्बैट एयरक्राफ्ट (LCA) तेजस जैसे लड़ाकू विमानों के लिए पूर्वानुमानित रखरखाव, विकसित करने के लिए वित्तपोषण प्रदान करती है।
  • भारत AI शासन दिशा-निर्देश (2025-2026): भारत ने हाल ही में “सुरक्षा और विश्वास” पर केंद्रित सिद्धांत-आधारित ढाँचा जारी किया, जो यह सुनिश्चित करता है कि कृत्रिम बुद्धिमत्ता नवाचार राष्ट्रीय मूल्यों या मानव सुरक्षा से समझौता न करे।
  • संयुक्त राष्ट्र CCW में स्थिति: संयुक्त राष्ट्र के कुछ पारंपरिक हथियारों पर कन्वेंशन (CCW) में भारत LAWS आधारित सरकारी विशेषज्ञ समूह (GGE) की अध्यक्षता और भागीदारी करता है, और सैन्य आवश्यकता तथा मानवीय अनिवार्यताओं के बीच संतुलन बनाए रखता है।

वैश्विक पहल और सर्वोत्तम वैश्विक प्रथाएँ

सैन्य कृत्रिम बुद्धिमत्ता का शासन उच्च-स्तरीय राजनीतिक घोषणाओं, मानवीय पक्ष और “सुरक्षा-से-निर्माण” तकनीकी मानकों के मिश्रण के माध्यम से विकसित हो रहा है। ये पहल तीव्र नवाचार और अंतरराष्ट्रीय संधि निर्माण की धीमी गति के मध्य के समयांतराल को समाप्त करने के लक्ष्य निर्धारित करती हैं।

  • कृत्रिम बुद्धिमत्ता के जिम्मेदार सैन्य उपयोग पर अमेरिका की राजनीतिक घोषणा (2023): वर्ष 2026 तक 50 से अधिक देशों द्वारा समर्थित, यह ढाँचा रक्षा विभाग (DoD) और अंतरराष्ट्रीय सहयोगियों के लिए मानदंड स्थापित करने का एक प्रमुख गैर-बाध्यकारी प्रयास है।
    • मूल सिद्धांत: इसमें दस मार्गदर्शक सिद्धांत शामिल हैं, जिनमें यह आवश्यक है कि कृत्रिम बुद्धिमत्ता प्रणालियों के स्पष्ट और परिभाषित उपयोग संभव हो सके और उनका संपूर्ण जीवनचक्र में कठोर परीक्षण और मूल्यांकन (T&E) किया जाए।
    • वरिष्ठ-स्तरीय निगरानी: यह अनिवार्य करता है कि “उच्च-परिणाम” वाले अनुप्रयोग—जैसे बल प्रयोग से संबंधित—तैनाती से पूर्व वरिष्ठ-स्तरीय मानवीय समीक्षा के अधीन हों, ताकि स्वचालन पक्षपात को न्यूनतम किया जा सके।
    • श्रेष्ठ वैश्विक अभ्यास: यह घोषणा एक “अभ्यास समुदाय” के रूप में कार्य करती है, जहाँ सहयोग करने वाले देश पारदर्शी और ऑडिट योग्य कृत्रिम बुद्धिमत्ता संरचनाओं के निर्माण के लिए अपनी कार्यप्रणालियाँ साझा करते हैं।
  • “सियोल ढाँचा” और कार्यान्वयन रूपरेखा (2024): यह ढाँचा, जो दक्षिण कोरिया में आयोजित REAIM 2024 शिखर बैठक में विकसित हुआ, चर्चा को सारगर्भित नैतिकता से राष्ट्रीय उत्तरदायित्व की ओर ले गया।
    • कार्यान्वयन रूपरेखा: 61 देशों द्वारा अंगीकृत, यह रूपरेखा राज्यों को अपने राष्ट्रीय सैन्य सिद्धांतों में नैतिक मानकों को एकीकृत करने के लिए मार्गदर्शन प्रदान करती है।
    • प्रमुख नवाचार: यह राज्यों को राष्ट्रीय “आचार संहिता” अपनाने के लिए प्रोत्साहित करती है, जो सैन्य कृत्रिम बुद्धिमत्ता की खरीद में पारदर्शिता सुनिश्चित करती है और यह सुनिश्चित करती है कि निजी क्षेत्र के संविदाकार भी सैन्य नैतिक मानकों का अनुपालन करें।
    • दृष्टिकोणों का समावेश: यह ढाँचा “युवा और शांति” के दृष्टिकोण को शामिल करने के लिए विशेष रूप से उल्लेखनीय रहा, यह स्वीकार करते हुए कि कृत्रिम बुद्धिमत्ता युद्ध का दीर्घकालिक प्रभाव आने वाली पीढ़ियों पर पड़ेगा।
  • नाटो की “निर्माण-से-उत्तरदायी” (RbD) रणनीति: उत्तरी अटलांटिक संधि संगठन (NATO) ने अपने मूल्यों से समझौता किए बिना तकनीकी बढ़त बनाए रखने हेतु “निर्माण से उत्तरदायी” दर्शन की अग्रणी पहल की है।
    • नैतिकता का कठोर अंतःसन्निवेशन: निर्माण से उत्तरदायी दृष्टिकोण विधिक एवं नैतिक प्रतिबंधों को सीधे सॉफ्टवेयर विकास जीवनचक्र में समाहित करने का समर्थन करता है। इसका आशय यह है कि अनुसंधान चरण से ही कृत्रिम बुद्धिमत्ता में “अग्नि-दीवारें” और “तर्क द्वार” कूटबद्ध किए जाएँ।
    • उपयोग के छह सिद्धांत: नाटो की कृत्रिम बुद्धिमत्ता रणनीति छह स्तंभों पर आधारित है— विधिसंगतता, उत्तरदायित्व, विश्वसनीयता, शासनीयता और पक्षपात न्यूनीकरण।
    • प्रमाणीकरण प्रोटोकॉल: नाटो मानकीकृत प्रमाणीकरण प्रक्रियाएँ विकसित कर रहा है, ताकि किसी एक सदस्य राष्ट्र में विकसित कृत्रिम बुद्धिमत्ता प्रणाली गठबंधन के अन्य देशों के साथ विधिक और तकनीकी रूप से “अंतःप्रचालनीय” सुनिश्चित की जा सके।
  • अनुच्छेद-36 की समीक्षाएँ-विधिक प्रवेशद्वार: जेनेवा कन्वेंशनों के अतिरिक्त प्रोटोकॉल-I के अनुच्छेद-36 के अंतर्गत, राज्यों पर यह विधिक दायित्व है कि वे यह निर्धारित करें कि कोई “नया हथियार, साधन अथवा युद्ध की पद्धति” अंतरराष्ट्रीय विधि द्वारा निषिद्ध तो नहीं है।
    • अनिवार्य कानूनी लेखा-परीक्षण: कुछ देश अब कृत्रिम बुद्धिमत्ता आधारित हथियार प्रणालियों के लिए विशेष रूप से अनिवार्य कानूनी समीक्षाओं को संस्थागत बना रहे हैं। इसके तहत विधि विशेषज्ञों को डेटा वैज्ञानिकों के साथ मिलकर यह सुनिश्चित करना होता है कि प्रणाली अंतरराष्ट्रीय मानवीय कानून (IHL) का पालन कर रही है।
    • ‘लर्निंग एल्गोरिदम’ की चुनौती: एक उभरती हुई सर्वोत्तम प्रथा “निरंतर समीक्षा” मॉडल है।
      • पारंपरिक हथियारों के विपरीत, कृत्रिम बुद्धिमत्ता आधारित प्रणाली तैनाती के बाद भी “सीख” सकती है और अपना व्यवहार परिवर्तित कर सकती है। इसलिए, युद्धक्षेत्र में उपयोग के बाद भी समय-समय पर कानूनी पुनर्मूल्यांकन आवश्यक है।
  • अंतरराष्ट्रीय रेड क्रॉस समिति की “द्वि-स्तरीय” संस्तुतियाँ: अंतरराष्ट्रीय रेड क्रॉस समिति वैश्विक विमर्श के लिए नैतिक और मानवीय दिशा-सूचक प्रदान करती है।
    • स्तर 1 — निषेध: समिति उन घातक स्वायत्त हथियार प्रणालियों पर पूर्ण प्रतिबंध की माँग करती है, जो अप्रत्याशित (ब्लैक बॉक्स) हों या जिन्हें बिना किसी मानवीय सहभागिता के सीधे मनुष्यों को लक्ष्य बनाने हेतु अभिकल्पित किया गया हो।
    • स्तर 2 — प्रतिबंध: अन्य सभी स्वायत्त प्रणालियों के लिए समिति संचालन के समय और स्थान पर कठोर सीमाएँ निर्धारित करने का समर्थन करती है, ताकि मनुष्य सार्थक मानवीय नियंत्रण बनाए रख सकें और अनपेक्षित नागरिक क्षति को रोका जा सके।

आगे की राह

जैसे-जैसे वैश्विक युद्ध परिदृश्य मशीन-गति संचालित अभियानों की ओर अग्रसर हो रहा है, विनियमन के प्रति पारंपरिक “प्रतीक्षा और अवलोकन” दृष्टिकोण दायित्व में परिवर्तित होता जा रहा है। मानव सुरक्षा और रणनीतिक स्थिरता पर केंद्रित एक संतुलित एवं चरणबद्ध रोडमैप की आवश्यकता है, जिससे इस संक्रमण का सुचारु संचालन किया जा सके।

  • चरणबद्ध मानक विकास- सौम्य विधि से बाध्यकारी विधि की ओर: वर्तमान परिभाषात्मक गतिरोध तथा अनुसंधान एवं विकास की तीव्र गति को देखते हुए, तत्काल बाध्यकारी संधि की माँग करना प्रायः प्रतिकूल सिद्ध हो सकता है।
    • स्वैच्छिक आचार संहिता: प्रारंभिक चरण में राज्यों को विश्वास निर्माण हेतु एक गैर-बाध्यकारी आचार संहिता पर ध्यान केंद्रित करना चाहिए।
      • इसमें अभियानों के क्षेत्र में तैनाती से पूर्व कृत्रिम बुद्धिमत्ता प्रणालियों के सत्यापन और प्रमाणीकरण के लिए साझा मानक सम्मिलित हों।
    • प्रथम चरण में मानक ढाँचे की स्थापना: वैश्विक मानदंडों की स्थापना — जैसे पूर्णतः स्वायत्त घातक लक्ष्यीकरण के विरुद्ध साझा “निषेध भावना” गलत आकलनों को रोकते हुए तकनीकी प्रगति के लिए स्थान सुरक्षित रखती है।
      • जब ये मानदंड स्थिर हो जाएँ, तब वे भविष्य की बाध्यकारी संधियों के लिए आधार बन सकते हैं।
  • नाभिकीय “अवरोध रेखाओं” और ‘न्यूक्लियर फायरवॉल’ की स्थापना: तात्कालिक प्राथमिकता नाभिकीय और कृत्रिम बुद्धिमत्ता के अंतर्संबंध पर केंद्रित होनी चाहिए। एल्गोरिदमिक नाभिकीय युद्ध की संभावना को रोकने हेतु कृत्रिम बुद्धिमत्ता को रणनीतिक प्रक्षेपण निर्णयों से पूर्णतः पृथक रखा जाना अनिवार्य है।
    • पूर्ण निषेध: एक वैश्विक समझौते की आवश्यकता है, जो ‘न्यूक्लियर फायरवॉल’ को यह सुनिश्चित करते हुए स्थापित करे, कि कृत्रिम बुद्धिमत्ता प्रणालियों को कभी भी नाभिकीय कमान, नियंत्रण और संचार पर स्वायत्त नियंत्रण न प्रदान किया जाए।
    • सुरक्षित निर्णय-सहायता: यद्यपि कृत्रिम बुद्धिमत्ता प्रारंभिक चेतावनी संबंधी आँकड़ों के प्रसंस्करण में सहायक हो सकती है, तथापि उन्नयन का अंतिम निर्णय “मानव-परिपथ में” कार्य के रूप में ही बना रहना चाहिए।
  • जोखिम-आधारित पदानुक्रम का कार्यान्वयन: सभी सैन्य कृत्रिम बुद्धिमत्ता प्रणालियाँ समान रूप से जोखिमपूर्ण नहीं हैं। प्रभावी विनियमन हेतु राज्यों को “जोखिम मैट्रिक्स” अपनानी चाहिए, जिसके अंतर्गत नियंत्रण प्रणाली की संभावित हानि के अनुपात में निर्धारित किए जाएँ।
    • उच्च-जोखिम कृत्रिम बुद्धिमत्ता (घातक लक्ष्यीकरण): इन प्रणालियों पर कठोर पारदर्शिता आवश्यकताएँ, अनिवार्य मानव-पर्यवेक्षण और अनुच्छेद-36 की समीक्षाएँ लागू होनी चाहिए।
    • निम्न-जोखिम कृत्रिम बुद्धिमत्ता (लॉजिस्टिक्स एवं रखरखाव): लड़ाकू विमानों के लिए पूर्वानुमानित रखरखाव या आपूर्ति शृंखला अनुकूलन जैसे अनुप्रयोगों को सरल विनियामक ढाँचों के अंतर्गत संचालित किया जा सकता है, जिससे नवाचार और परिचालन दक्षता को प्रोत्साहन मिले।
  • जीवनचक्र-आधारित अनुच्छेद-36 समीक्षाओं का संस्थानीकरण: पारंपरिक हथियार समीक्षाएँ सामान्यतः एक बार की प्रक्रिया होती हैं। किंतु अधिगमशील एल्गोरिदम समय के साथ परिवर्तित होते हैं, जिससे एक नवीन दृष्टिकोण की आवश्यकता उत्पन्न होती है।
    • आवर्तक विधिक लेखा-परीक्षण: राष्ट्रों को निरंतर अनुच्छेद-36 समीक्षाएँ संचालित करने के सर्वोत्तम अभ्यास साझा करने चाहिए। इसमें प्रत्येक सॉफ्टवेयर का अद्यतन अथवा आधारभूत मॉडल द्वारा नवीन युद्धक्षेत्रीय आँकड़ों से अधिगम के पश्चात् पुनर्मूल्यांकन सम्मिलित हो।
    • बहुविषयी दल: विधिक समीक्षाओं को केवल विधिक अभ्यास तक सीमित न रखकर बहुविषयी लेखा-परीक्षण में रूपांतरित किया जाना चाहिए, जिसमें डेटा वैज्ञानिक, नैतिकताविद और सैन्य कमांडर सम्मिलित हों।
  • शस्त्र स्पर्द्धा की रोकथाम हेतु विश्वास-निर्माण उपाय: पिछड़ने के भय से प्रेरित अनियंत्रित कृत्रिम बुद्धिमत्ता आधारित शस्त्र स्पर्द्धा को रोकने के लिए राज्यों को पारदर्शिता पहलों में संलग्न होना चाहिए।
    • स्वैच्छिक डेटा साझाकरण: राज्य कृत्रिम बुद्धिमत्ता सुरक्षा प्रोटोकॉल तथा परीक्षण एवं मूल्यांकन प्रक्रियाओं पर उच्च-स्तरीय जानकारी साझा कर सकते हैं, बिना संवेदनशील तकनीकी गोपनीयताओं को प्रदर्शित किए।
    • एल्गोरिदमिक त्रुटियों हेतु त्वरित संपर्क तंत्र: विरोधी राज्यों के बीच अनपेक्षित कृत्रिम बुद्धिमत्ता व्यवहार या आकस्मिक उग्रता की त्वरित स्पष्टता हेतु समर्पित संचार माध्यम स्थापित किए जाने चाहिए, जैसा कि शीतयुद्ध कालीन “हॉटलाइन” वार्ता व्यवस्था में निहित था।

निष्कर्ष

21वीं सदी में युद्ध में कृत्रिम बुद्धिमत्ता का एकीकरण एक अनिवार्य यथार्थ है। भारत के लिए रणनीतिक स्वायत्तता बनाए रखने का अर्थ है सशक्त कृत्रिम बुद्धिमत्ता क्षमताओं का विकास करना, साथ ही सार्थक मानवीय नियंत्रण पर वैश्विक विमर्श का नेतृत्व करना। अंतरराष्ट्रीय मानवीय विधि की रक्षा करते हुए नवाचार को बाधित न करने वाले सुरक्षा-नियंत्रणों का समर्थन कर, भारत यह सुनिश्चित कर सकता है कि प्रौद्योगिकी सुरक्षा का साधन बनी रहे, न कि अनपेक्षित आपदा का कारण।

Final Result – CIVIL SERVICES EXAMINATION, 2023. PWOnlyIAS is NOW at three new locations Mukherjee Nagar ,Lucknow and Patna , Explore all centers Download UPSC Mains 2023 Question Papers PDF Free Initiative links -1) Download Prahaar 3.0 for Mains Current Affairs PDF both in English and Hindi 2) Daily Main Answer Writing , 3) Daily Current Affairs , Editorial Analysis and quiz , 4) PDF Downloads UPSC Prelims 2023 Trend Analysis cut-off and answer key

THE MOST
LEARNING PLATFORM

Learn From India's Best Faculty

      

Final Result – CIVIL SERVICES EXAMINATION, 2023. PWOnlyIAS is NOW at three new locations Mukherjee Nagar ,Lucknow and Patna , Explore all centers Download UPSC Mains 2023 Question Papers PDF Free Initiative links -1) Download Prahaar 3.0 for Mains Current Affairs PDF both in English and Hindi 2) Daily Main Answer Writing , 3) Daily Current Affairs , Editorial Analysis and quiz , 4) PDF Downloads UPSC Prelims 2023 Trend Analysis cut-off and answer key

<div class="new-fform">







    </div>

    Subscribe our Newsletter
    Sign up now for our exclusive newsletter and be the first to know about our latest Initiatives, Quality Content, and much more.
    *Promise! We won't spam you.
    Yes! I want to Subscribe.