प्रश्न की मुख्य माँग
- भारत में राष्ट्रीय AI रणनीति के अभाव से उत्पन्न जोखिम।
- समावेशी, जवाबदेह AI शासन सुनिश्चित करने के लिए भारत को निम्नलिखित उपाय अपनाने चाहिए।
|
उत्तर
भारत वैश्विक AI शासन को आकार देने की इच्छा रखता है, जिसका प्रदर्शन वर्ष 2024 में AI पर वैश्विक भागीदारी (GPAI) के नेतृत्व द्वारा किया गया है। हालाँकि, एक व्यापक घरेलू AI कानून की अनुपस्थिति एक महत्त्वपूर्ण नीतिगत शून्यता उत्पन्न करती है। यह अंतर नैतिक, आर्थिक और विनियामक जोखिम उत्पन्न करता है, जो एक समावेशी, जवाबदेह AI पारिस्थितिकी तंत्र के विकास में बाधा डालता है ।
राष्ट्रीय AI रणनीति के अभाव से उत्पन्न जोखिम
- आर्थिक प्रतिस्पर्धात्मकता का क्षरण: स्पष्ट रणनीति के बिना, भारत वैश्विक AI दौड़ में हारने और विदेशी प्रौद्योगिकी का मात्र उपभोक्ता बनकर रह जाने का जोखिम उठाता है।
उदाहरण: UNCTAD की प्रौद्योगिकी और नवाचार रिपोर्ट 2025 के अनुसार, चीन $7.8 अरब डॉलर के निजी AI निवेश के साथ दूसरे स्थान पर रहा, जबकि भारत $1.4 अरब डॉलर के साथ दसवें स्थान पर रहा, यह वैश्विक प्रतिस्पर्धात्मकता में एक स्पष्ट अंतर को दर्शाता है।
- अनियमित डेटा शोषण: भारत के विशाल डेटासेट का उपयोग विदेशी AI मॉडल को प्रशिक्षित करने के लिए किया जा रहा है, जिसका भारत को कोई लाभ या निगरानी नहीं मिल रही है।
- उदाहरण: वैश्विक AI मॉडल को सार्वजनिक भारतीय डेटासेट जैसे कि मेडिकल रिकॉर्ड या वित्तीय डेटा पर प्रशिक्षित किया जा रहा है, बिना किसी स्पष्ट सहमति या लाभ साझा किए।
- सामाजिक पूर्वाग्रह का विस्तार: पक्षपातपूर्ण डेटा पर प्रशिक्षित AI मॉडल वित्त और कानून प्रवर्तन जैसे महत्त्वपूर्ण क्षेत्रों में भेदभाव को कायम रख सकते हैं और बढ़ा सकते हैं।
- नौकरी बाजार में व्यवधान: राष्ट्रीय स्तर पर पुनः कौशलीकरण रणनीति की कमी के कारण भारत के कार्यबल को AI-संचालित स्वचालन के कारण व्यापक रूप से नौकरी के विस्थापन का सामना करना पड़ रहा है।
- उदाहरण के लिए, IT और BPO क्षेत्रों को कौशल उन्नयन के लिए स्पष्ट सरकारी नेतृत्व वाली योजना के बिना जनरेटिव AI से महत्त्वपूर्ण व्यवधान का सामना करना पड़ रहा है।
- राष्ट्रीय सुरक्षा सुभेद्यतायें: AI के अनियमित उपयोग से साइबर हमलों और विदेशी समर्थित दुष्प्रचार अभियानों का खतरा उत्पन्न होता है।
- उदाहरण के लिए, हाल के चुनावों के दौरान AI द्वारा उत्पन्न डीप फेक का प्रसार दुर्भावनापूर्ण सूचना युद्ध का मुकाबला करने के लिए विनियमन की तत्काल आवश्यकता को दर्शाता है।
- नागरिक अधिकारों का हनन: कानूनी सुरक्षा उपायों के बिना, AI की तैनाती से बड़े पैमाने पर निगरानी और निजता जैसे मौलिक अधिकारों का उल्लंघन हो सकता है।
- उदाहरण के लिए, कानून प्रवर्तन एजेंसियों द्वारा फेशियल रिकॉग्निशन टेक्नोलॉजी (FRT) का अनियमित उपयोग एक विशिष्ट कानूनी ढाँचे के बिना गंभीर गोपनीयता संबंधी चिंताएँ पैदा करता है।
जवाबदेह AI शासन के लिए भारत को अपनाने चाहिए ये उपाय
- जोखिम-आधारित AI रणनीति लागू करना चाहिए: भारत को एक व्यापक AI कानून प्रस्तुत करना चाहिए जो संभावित नुकसान के आधार पर अनुप्रयोगों को नियंत्रित करता हो।
- उदाहरण के लिए, स्वास्थ्य सेवा और वित्त जैसे क्षेत्रों में उच्च जोखिम वाली AI प्रणालियों को यूरोपीय संघ के AI अधिनियम के समान सख्त पूर्व-तैनाती ऑडिट के अधीन होना चाहिए ।
- एक स्वतंत्र AI नियामक की स्थापना: मानक निर्धारित करने, ऑडिट करने और अनुपालन सुनिश्चित करने के लिए एक समर्पित नियामक निकाय की आवश्यकता है।
- उदाहरण: TRAI ने जोखिम आधारित दृष्टिकोण के साथ AI को विनियमित करने के लिए एक वैधानिक भारतीय कृत्रिम बुद्धिमत्ता और डेटा प्राधिकरण (AIDAI) बनाने की सिफारिश की है।
- संप्रभु AI कंप्यूट इंफ्रास्ट्रक्चर बनाना: घरेलू नवाचार को बढ़ावा देने के लिए बड़े पैमाने पर AI कंप्यूटिंग सुविधाओं में सार्वजनिक निवेश महत्त्वपूर्ण है।
- उदाहरण के लिए, IndiaAI मिशन के तहत, सरकार ने सब्सिडी वाले सार्वजनिक-निजी क्लाउड भागीदारी के माध्यम से स्टार्टअप, शोधकर्ताओं और MSMEs के लिए सुलभ 34,000 से अधिक GPU तैनात किए हैं।
- एल्गोरिद्म संबंधी पारदर्शिता और जवाबदेही को अनिवार्य बनाना: कानून में डेवलपर्स से यह अपेक्षा की जानी चाहिए कि वे विस्तृत रिकॉर्ड बनाए रखें और AI प्रणालियों के निर्णयों की व्याख्या करनी चाहिए।
- मजबूत डेटा सुरक्षा लागू करना: AI गवर्नेंस को मजबूत डेटा सुरक्षा सिद्धांतों की नींव पर बनाया जाना चाहिए।
- उदाहरण के लिए, डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट, 2023 को सख्ती से लागू करना चाहिए ताकि यह सुनिश्चित किया जा सके कि AI मॉडल के प्रशिक्षण के लिए इस्तेमाल किया जाने वाला डेटा स्पष्ट सहमति से एकत्र किया गया हो।
- जन जागरूकता और कौशल को बढ़ावा देना: नागरिकों को उनके अधिकारों के बारे में शिक्षित करने और AI से संबंधित नौकरियों के लिए कार्यबल तैयार करने हेतु एक राष्ट्रीय मिशन शुरू करना चाहिए।
- उदाहरण के लिए, IndiaAI माइक्रोसॉफ्ट MoU (2025) का लक्ष्य वर्ष 2026 तक 500,000 लोगों को प्रशिक्षित करना और 10 राज्यों में 20 NSTI/NIELIT केंद्रों में AI प्रयोगशालाएँ स्थापित करनी चाहिए।
वैश्विक AI शासन में नेतृत्व करने की भारत की आकांक्षा के लिए एक स्पष्ट राष्ट्रीय रणनीति की आवश्यकता है जो जवाबदेही , समावेशन और नवाचार को प्राथमिकता दे। मजबूत कानून बनाकर, AI बुनियादी ढाँचे में निवेश करके और नागरिक अधिकारों की रक्षा करके, भारत जोखिमों को अवसरों में बदल सकता है और वैश्विक AI नेतृत्व में एक विश्वसनीय, नैतिक और प्रभावशाली राष्ट्र के रूप में उभर सकता है।
To get PDF version, Please click on "Print PDF" button.
Latest Comments