सरकारों को AI के उपयोग में कितना आगे बढ़ना जाना चाहिए?

सरकारों को AI के उपयोग में कितना आगे बढ़ना जाना चाहिए? 20 Mar 2026

संदर्भ

AI सुरक्षा उपायों को हटाने को लेकर अमेरिकी पेंटागन और एन्थ्रोपिक (Anthropic) के बीच विवाद, AI के उपयोग में राष्ट्रीय सुरक्षा आवश्यकताओं और नैतिक सीमाओं के बीच तनाव को उजागर करता है।

पृष्ठभूमि

  • सरकारी दबाव बनाम नैतिक सीमाएँ: रिपोर्ट के अनुसार, अमेरिकी सरकार ने एन्थ्रोपिक (Anthropic) से जन-निगरानी और स्वायत्त हथियारों के विरुद्ध सुरक्षा उपाय हटाने को कहा, जिसे कंपनी ने अस्वीकार कर दिया।
  • वैकल्पिक प्रदाताओं की ओर रुख: सरकार द्वारा OpenAI के साथ साझेदारी करने से यह चिंता बढ़ती है कि जब राज्य नैतिक विरोध को दरकिनार करते हैं, तब AI पर नियंत्रण किसका होगा।
  • मुख्य मुद्दा: जब सरकारें AI की प्रमुख उपयोगकर्ता बन जाती हैं, तब स्वतंत्र निगरानी के अभाव में इसके हानिकारक उद्देश्यों के लिए उपयोग होने का जोखिम बढ़ जाता है।

AI का उचित बनाम खतरनाक उपयोग

  • उचित उपयोग (स्पष्ट और नियंत्रित संदर्भ): AI का उपयोग उन क्षेत्रों में होना चाहिए जहाँ स्पष्ट लक्ष्य, सीमित दायरा और मापने योग्य परिणाम हों, तथा मानव निगरानी और जनहित सुनिश्चित हो।
  • खतरनाक उपयोग (अनियंत्रित शक्ति): चेहरा पहचान, व्यापक निगरानी और स्वायत्त हथियार अत्यधिक राज्य शक्ति को केंद्रित करते हैं, नागरिक स्वतंत्रताओं को कमजोर करते हैं तथा महत्वपूर्ण निर्णयों पर सार्थक मानव नियंत्रण को कमजोर करते हैं।
  • शासन के लिए मानक सिद्धांत: “कोई नुकसान न करें” (Do No Harm) दृष्टिकोण अपनाते हुए स्वायत्त घातक प्रणालियों पर सख्त प्रतिबंध लगाया जाए और उच्च-जोखिम वाले AI अनुप्रयोगों को कड़े नियमों के तहत नियंत्रित किया जाए ताकि अधिकारों और लोकतांत्रिक स्वतंत्रताओं की रक्षा हो सके।

संरचनात्मक जोखिम – तीन शासन जाल

  • दक्षता जाल (श्रम प्रतिस्थापन): AI-आधारित स्वचालन अक्सर सार्वजनिक सेवाओं में मानव श्रम को प्रतिस्थापित कर देता है, जबकि दक्षता में वृद्धि या बेहतर परिणामों के स्पष्ट प्रमाण नहीं होते, जिससे रोजगार हानि और सेवा प्रदाय में गिरावट का जोखिम उत्पन्न होता है।
  • कार्य विस्तार: विशिष्ट कल्याणकारी उद्देश्यों (जैसे राशन वितरण) के लिए एकत्र किए गए डेटा को धीरे-धीरे निगरानी या पुलिसिंग के लिए पुनः उपयोग किया जाता है, अक्सर बिना पारदर्शिता या सूचित सार्वजनिक सहमति के।
  • सहमति का भ्रम: कम डिजिटल साक्षरता के कारण नागरिक नियम और शर्तों को यांत्रिक रूप से स्वीकार कर लेते हैं, जिससे व्यापक डेटा संग्रह और उपयोग के लिए बिना जानकारी के सहमति बन जाती है।

डेटा, गोपनीयता और AI की राजनीतिक अर्थव्यवस्था

  • मौलिक अधिकार के रूप में गोपनीयता: के. एस. पुट्टास्वामी (2017) निर्णय में गोपनीयता को गरिमा का अभिन्न अंग माना गया है, जिसका अर्थ है कि व्यक्तिगत डेटा को केवल एक आर्थिक संसाधन के रूप में नहीं देखा जा सकता।
  • ‘ज़्यादा डेटा मतलब बेहतर AI’ का मिथक: कुशल मॉडलों में प्रगति (जैसे DeepSeek) यह दर्शाती है कि उच्च-गुणवत्ता वाले एल्गोरिद्म अत्यधिक डेटा संग्रह पर निर्भर हुए बिना भी बेहतर परिणाम दे सकते हैं।
  • डेटा के व्यावसायीकरण का खतरा: नागरिकों के डेटा को “राष्ट्रीय संपत्ति” के रूप में प्रस्तुत करना व्यक्तिगत अधिकारों को वस्तुकरण करने का जोखिम उत्पन्न करता है और राज्य तथा निजी संस्थाओं द्वारा आक्रामक डेटा संग्रह प्रथाओं को वैधता प्रदान कर सकता है।

नियामक तर्क और जवाबदेही का विघटन

  • स्वर्ण नियम का उल्लंघन: खनन जैसे क्षेत्रों के विपरीत, जहाँ संचालन से पहले विनियमन होता है, AI को अक्सर पहले लागू किया जाता है और बाद में विनियमित किया जाता है, जिससे शासन की मानक प्रक्रिया बदल जाती है।
  • केस स्टडी (झारखंड): AI -आधारित फिंगरप्रिंट प्रमाणीकरण विफलताओं के कारण लाभार्थियों को राशन से वंचित होना पड़ा, फिर भी जिम्मेदार निजी कंपनी पर कोई जवाबदेही तय नहीं की गई।
  • शासन संबंधी अंतराल: स्पष्ट दायित्व और जवाबदेही ढाँचे के अभाव के कारण AI प्रणालियों से होने वाले नुकसान बिना प्रभावी समाधान के जारी रह सकते हैं।

डिजिटल शासन में स्वेच्छा का भ्रम

  • वास्तव में अनिवार्य प्रणालियाँ: Digi Yatra जैसी सेवाओं को औपचारिक रूप से स्वैच्छिक बताया जाता है, लेकिन व्यवहार में जो लोग इसमें शामिल नहीं होते, उन्हें प्रणालीगत असुविधाओं का सामना करना पड़ता है, जिससे भागीदारी लगभग अनिवार्य हो जाती है।
  • अनिवार्य विकल्प संरचना: जब विकल्प अक्षम, समय लेने वाले या बहिष्कारी हों, तो सहमति अपना अर्थ खो देती है, जिससे नागरिकों को डिजिटल प्रणालियों को स्वीकार करने के लिए परोक्ष रूप से प्रेरित किया जाता है।

रणनीतिक स्वायत्तता और निर्भरता का जाल

  • बड़ी टेक कंपनियों का दबाव: अमेरिका और चीन जैसे देशों से पीछे रह जाने के भय का उपयोग सरकारों को तेजी से AI अपनाने और अधिक धन आवंटित करने के लिए प्रेरित करने में किया जाता है, अक्सर पर्याप्त सुरक्षा उपायों के बिना।
  • स्वदेशी क्षमता की आवश्यकता: भारत को विदेशी AI प्रणालियों पर अत्यधिक निर्भर रहने के बजाय, ISRO और परमाणु कार्यक्रम के दृष्टिकोण का अनुसरण करते हुए, बुनियादी अनुसंधान और क्षमता निर्माण को प्राथमिकता देनी चाहिए।
  • तकनीकी संप्रभुता का जोखिम: बाहरी AI मॉडलों पर निर्भरता रणनीतिक स्वायत्तता को कमजोर कर सकती है, घरेलू नवाचार पारिस्थितिकी तंत्र को नुकसान पहुँचा सकती है, और दीर्घकालिक तकनीकी आत्मनिर्भरता को सीमित कर सकती है।

आगे की राह

  • स्पष्ट रूप से परिभाषित सार्वजनिक हित समस्याओं के लिए AI का उपयोग करना: AI को ऐसे क्षेत्रों में लागू करें जहाँ उद्देश्यों की स्पष्टता हो, दायरा सीमित हो, और परिणाम मापने योग्य हों, ताकि प्रभावशीलता सुनिश्चित की जा सके और अनपेक्षित नुकसान को कम किया जा सके।
  • उच्च-जोखिम वाले अनुप्रयोगों पर प्रतिबंध: सामूहिक निगरानी और स्वायत्त हथियारों जैसे उपयोगों पर प्रतिबंध आरोपित करना या उन्हें कड़ाई से विनियमित करना, जो नागरिक स्वतंत्रताओं और मानव नियंत्रण के लिए खतरा उत्पन्न करते हैं।
  • तैनाती से पहले विनियमन: AI प्रणालियों के बड़े पैमाने पर कार्यान्वयन से पहले मजबूत कानूनी, नैतिक और जवाबदेही संबंधी तंत्र स्थापित करना।
  • जवाबदेही और पारदर्शिता सुनिश्चित करना: सरकार और निजी पक्षों दोनों पर स्पष्ट दायित्व निर्धारित करना तथा AI निर्णय-प्रक्रिया में पारदर्शिता सुनिश्चित करना, ताकि प्रभावी समाधान (रेड्रेसल) संभव हो सके।
  • घरेलू पारिस्थितिकी तंत्र को सुदृढ़ करना: बुनियादी विज्ञान, अनुसंधान और स्वदेशी AI विकास में निवेश करना ताकि दीर्घकालिक तकनीकी आत्मनिर्भरता हासिल हो सके और बाहरी निर्भरता से बचा जा सके।

निष्कर्ष

सरकारों को AI के उपयोग में संतुलित और सिद्धांत-आधारित दृष्टिकोण अपनाना चाहिए, ताकि इसके लाभों का उपयोग जनकल्याण के लिए किया जा सके, साथ ही मौलिक अधिकारों की रक्षा, जवाबदेही सुनिश्चित करना और लोकतांत्रिक स्वतंत्रताओं का संरक्षण भी बना रहे।

मुख्य परीक्षा हेतु अभ्यास प्रश्न

प्रश्न: लोक प्रशासन में कृत्रिम बुद्धिमत्ता (AI) के उपयोग से जुड़े नैतिक और शासन संबंधी चुनौतियों पर चर्चा कीजिए। उत्तरदायी AI तैनाती सुनिश्चित करने के लिए आवश्यक सुरक्षा उपाय सुझाइए।

 (15 अंक, 250 शब्द)

Follow Us

Explore SRIJAN Prelims Crash Course

Need help preparing for UPSC or State PSCs?

Connect with our experts to get free counselling & start preparing

Aiming for UPSC?

Download Our App

      
Quick Revise Now !
AVAILABLE FOR DOWNLOAD SOON
UDAAN PRELIMS WALLAH
Comprehensive coverage with a concise format
Integration of PYQ within the booklet
Designed as per recent trends of Prelims questions
हिंदी में भी उपलब्ध
Quick Revise Now !
UDAAN PRELIMS WALLAH
Comprehensive coverage with a concise format
Integration of PYQ within the booklet
Designed as per recent trends of Prelims questions
हिंदी में भी उपलब्ध

<div class="new-fform">







    </div>

    Subscribe our Newsletter
    Sign up now for our exclusive newsletter and be the first to know about our latest Initiatives, Quality Content, and much more.
    *Promise! We won't spam you.
    Yes! I want to Subscribe.