संदर्भ
AI सुरक्षा उपायों को हटाने को लेकर अमेरिकी पेंटागन और एन्थ्रोपिक (Anthropic) के बीच विवाद, AI के उपयोग में राष्ट्रीय सुरक्षा आवश्यकताओं और नैतिक सीमाओं के बीच तनाव को उजागर करता है।
पृष्ठभूमि
- सरकारी दबाव बनाम नैतिक सीमाएँ: रिपोर्ट के अनुसार, अमेरिकी सरकार ने एन्थ्रोपिक (Anthropic) से जन-निगरानी और स्वायत्त हथियारों के विरुद्ध सुरक्षा उपाय हटाने को कहा, जिसे कंपनी ने अस्वीकार कर दिया।
- वैकल्पिक प्रदाताओं की ओर रुख: सरकार द्वारा OpenAI के साथ साझेदारी करने से यह चिंता बढ़ती है कि जब राज्य नैतिक विरोध को दरकिनार करते हैं, तब AI पर नियंत्रण किसका होगा।
- मुख्य मुद्दा: जब सरकारें AI की प्रमुख उपयोगकर्ता बन जाती हैं, तब स्वतंत्र निगरानी के अभाव में इसके हानिकारक उद्देश्यों के लिए उपयोग होने का जोखिम बढ़ जाता है।
AI का उचित बनाम खतरनाक उपयोग
- उचित उपयोग (स्पष्ट और नियंत्रित संदर्भ): AI का उपयोग उन क्षेत्रों में होना चाहिए जहाँ स्पष्ट लक्ष्य, सीमित दायरा और मापने योग्य परिणाम हों, तथा मानव निगरानी और जनहित सुनिश्चित हो।
- खतरनाक उपयोग (अनियंत्रित शक्ति): चेहरा पहचान, व्यापक निगरानी और स्वायत्त हथियार अत्यधिक राज्य शक्ति को केंद्रित करते हैं, नागरिक स्वतंत्रताओं को कमजोर करते हैं तथा महत्वपूर्ण निर्णयों पर सार्थक मानव नियंत्रण को कमजोर करते हैं।
- शासन के लिए मानक सिद्धांत: “कोई नुकसान न करें” (Do No Harm) दृष्टिकोण अपनाते हुए स्वायत्त घातक प्रणालियों पर सख्त प्रतिबंध लगाया जाए और उच्च-जोखिम वाले AI अनुप्रयोगों को कड़े नियमों के तहत नियंत्रित किया जाए ताकि अधिकारों और लोकतांत्रिक स्वतंत्रताओं की रक्षा हो सके।
संरचनात्मक जोखिम – तीन शासन जाल
- दक्षता जाल (श्रम प्रतिस्थापन): AI-आधारित स्वचालन अक्सर सार्वजनिक सेवाओं में मानव श्रम को प्रतिस्थापित कर देता है, जबकि दक्षता में वृद्धि या बेहतर परिणामों के स्पष्ट प्रमाण नहीं होते, जिससे रोजगार हानि और सेवा प्रदाय में गिरावट का जोखिम उत्पन्न होता है।
- कार्य विस्तार: विशिष्ट कल्याणकारी उद्देश्यों (जैसे राशन वितरण) के लिए एकत्र किए गए डेटा को धीरे-धीरे निगरानी या पुलिसिंग के लिए पुनः उपयोग किया जाता है, अक्सर बिना पारदर्शिता या सूचित सार्वजनिक सहमति के।
- सहमति का भ्रम: कम डिजिटल साक्षरता के कारण नागरिक नियम और शर्तों को यांत्रिक रूप से स्वीकार कर लेते हैं, जिससे व्यापक डेटा संग्रह और उपयोग के लिए बिना जानकारी के सहमति बन जाती है।
डेटा, गोपनीयता और AI की राजनीतिक अर्थव्यवस्था
- मौलिक अधिकार के रूप में गोपनीयता: के. एस. पुट्टास्वामी (2017) निर्णय में गोपनीयता को गरिमा का अभिन्न अंग माना गया है, जिसका अर्थ है कि व्यक्तिगत डेटा को केवल एक आर्थिक संसाधन के रूप में नहीं देखा जा सकता।
- ‘ज़्यादा डेटा मतलब बेहतर AI’ का मिथक: कुशल मॉडलों में प्रगति (जैसे DeepSeek) यह दर्शाती है कि उच्च-गुणवत्ता वाले एल्गोरिद्म अत्यधिक डेटा संग्रह पर निर्भर हुए बिना भी बेहतर परिणाम दे सकते हैं।
- डेटा के व्यावसायीकरण का खतरा: नागरिकों के डेटा को “राष्ट्रीय संपत्ति” के रूप में प्रस्तुत करना व्यक्तिगत अधिकारों को वस्तुकरण करने का जोखिम उत्पन्न करता है और राज्य तथा निजी संस्थाओं द्वारा आक्रामक डेटा संग्रह प्रथाओं को वैधता प्रदान कर सकता है।
नियामक तर्क और जवाबदेही का विघटन
- स्वर्ण नियम का उल्लंघन: खनन जैसे क्षेत्रों के विपरीत, जहाँ संचालन से पहले विनियमन होता है, AI को अक्सर पहले लागू किया जाता है और बाद में विनियमित किया जाता है, जिससे शासन की मानक प्रक्रिया बदल जाती है।
- केस स्टडी (झारखंड): AI -आधारित फिंगरप्रिंट प्रमाणीकरण विफलताओं के कारण लाभार्थियों को राशन से वंचित होना पड़ा, फिर भी जिम्मेदार निजी कंपनी पर कोई जवाबदेही तय नहीं की गई।
- शासन संबंधी अंतराल: स्पष्ट दायित्व और जवाबदेही ढाँचे के अभाव के कारण AI प्रणालियों से होने वाले नुकसान बिना प्रभावी समाधान के जारी रह सकते हैं।
डिजिटल शासन में स्वेच्छा का भ्रम
- वास्तव में अनिवार्य प्रणालियाँ: Digi Yatra जैसी सेवाओं को औपचारिक रूप से स्वैच्छिक बताया जाता है, लेकिन व्यवहार में जो लोग इसमें शामिल नहीं होते, उन्हें प्रणालीगत असुविधाओं का सामना करना पड़ता है, जिससे भागीदारी लगभग अनिवार्य हो जाती है।
- अनिवार्य विकल्प संरचना: जब विकल्प अक्षम, समय लेने वाले या बहिष्कारी हों, तो सहमति अपना अर्थ खो देती है, जिससे नागरिकों को डिजिटल प्रणालियों को स्वीकार करने के लिए परोक्ष रूप से प्रेरित किया जाता है।
रणनीतिक स्वायत्तता और निर्भरता का जाल
- बड़ी टेक कंपनियों का दबाव: अमेरिका और चीन जैसे देशों से पीछे रह जाने के भय का उपयोग सरकारों को तेजी से AI अपनाने और अधिक धन आवंटित करने के लिए प्रेरित करने में किया जाता है, अक्सर पर्याप्त सुरक्षा उपायों के बिना।
- स्वदेशी क्षमता की आवश्यकता: भारत को विदेशी AI प्रणालियों पर अत्यधिक निर्भर रहने के बजाय, ISRO और परमाणु कार्यक्रम के दृष्टिकोण का अनुसरण करते हुए, बुनियादी अनुसंधान और क्षमता निर्माण को प्राथमिकता देनी चाहिए।
- तकनीकी संप्रभुता का जोखिम: बाहरी AI मॉडलों पर निर्भरता रणनीतिक स्वायत्तता को कमजोर कर सकती है, घरेलू नवाचार पारिस्थितिकी तंत्र को नुकसान पहुँचा सकती है, और दीर्घकालिक तकनीकी आत्मनिर्भरता को सीमित कर सकती है।
आगे की राह
- स्पष्ट रूप से परिभाषित सार्वजनिक हित समस्याओं के लिए AI का उपयोग करना: AI को ऐसे क्षेत्रों में लागू करें जहाँ उद्देश्यों की स्पष्टता हो, दायरा सीमित हो, और परिणाम मापने योग्य हों, ताकि प्रभावशीलता सुनिश्चित की जा सके और अनपेक्षित नुकसान को कम किया जा सके।
- उच्च-जोखिम वाले अनुप्रयोगों पर प्रतिबंध: सामूहिक निगरानी और स्वायत्त हथियारों जैसे उपयोगों पर प्रतिबंध आरोपित करना या उन्हें कड़ाई से विनियमित करना, जो नागरिक स्वतंत्रताओं और मानव नियंत्रण के लिए खतरा उत्पन्न करते हैं।
- तैनाती से पहले विनियमन: AI प्रणालियों के बड़े पैमाने पर कार्यान्वयन से पहले मजबूत कानूनी, नैतिक और जवाबदेही संबंधी तंत्र स्थापित करना।
- जवाबदेही और पारदर्शिता सुनिश्चित करना: सरकार और निजी पक्षों दोनों पर स्पष्ट दायित्व निर्धारित करना तथा AI निर्णय-प्रक्रिया में पारदर्शिता सुनिश्चित करना, ताकि प्रभावी समाधान (रेड्रेसल) संभव हो सके।
- घरेलू पारिस्थितिकी तंत्र को सुदृढ़ करना: बुनियादी विज्ञान, अनुसंधान और स्वदेशी AI विकास में निवेश करना ताकि दीर्घकालिक तकनीकी आत्मनिर्भरता हासिल हो सके और बाहरी निर्भरता से बचा जा सके।
निष्कर्ष
सरकारों को AI के उपयोग में संतुलित और सिद्धांत-आधारित दृष्टिकोण अपनाना चाहिए, ताकि इसके लाभों का उपयोग जनकल्याण के लिए किया जा सके, साथ ही मौलिक अधिकारों की रक्षा, जवाबदेही सुनिश्चित करना और लोकतांत्रिक स्वतंत्रताओं का संरक्षण भी बना रहे।
मुख्य परीक्षा हेतु अभ्यास प्रश्न
प्रश्न: लोक प्रशासन में कृत्रिम बुद्धिमत्ता (AI) के उपयोग से जुड़े नैतिक और शासन संबंधी चुनौतियों पर चर्चा कीजिए। उत्तरदायी AI तैनाती सुनिश्चित करने के लिए आवश्यक सुरक्षा उपाय सुझाइए।
(15 अंक, 250 शब्द)
|