प्रश्न की मुख्य माँग
- वर्तमान कानूनी ढाँचे में प्रमुख चुनौतियाँ
- अपस्ट्रीम क्षमता निर्माण और डाउनस्ट्रीम उपयोग-आधारित विनियमन
|
उत्तर
भारत में वर्तमान में कृत्रिम बुद्धिमत्ता को ‘तकनीकी-कानूनी’ ढाँचे के माध्यम से नियंत्रित किया जाता है, जो मुख्य रूप से सूचना प्रौद्योगिकी (IT) अधिनियम, 2000, डिजिटल व्यक्तिगत डेटा संरक्षण (DPDP) अधिनियम, 2023 और क्षेत्र-विशिष्ट वित्तीय विनियमों पर आधारित है। हालाँकि यह “सरल” दृष्टिकोण नवोदित प्रौद्योगिकी को बाधित होने से बचाता है, लेकिन इसमें कृत्रिम बुद्धिमत्ता से होने वाले नुकसानों के लिए राज्य द्वारा अनिवार्य “देखभाल के कर्तव्य” पर केंद्रित एक समर्पित उपभोक्ता सुरक्षा व्यवस्था का अभाव है।
वर्तमान कानूनी ढाँचे में प्रमुख चुनौतियाँ
- खंडित निगरानी: RBI (वित्त), MeitY (आईटी) और डेटा संरक्षण बोर्ड जैसी कई एजेंसियों में विनियमन विभाजित है, जिसके कारण AI डेवलपर्स के लिए मानक अतिव्यापी या परस्पर विरोधी हो जाते हैं।
- ‘देखभाल के कर्तव्य’ का अभाव: वर्तमान कानून डेटा गोपनीयता और साइबर अपराध पर केंद्रित हैं, लेकिन AI के “उत्पाद सुरक्षा” पहलू, विशेष रूप से मनोवैज्ञानिक या व्यवहार संबंधी नुकसानों को संबोधित करने में विफल रहते हैं।
- उदाहरण: चीन के “इमोशनल AI” नियमों के विपरीत, भारत में मनोवैज्ञानिक निर्भरता या एडिक्टिव AI लूप को लक्षित करने के लिए कोई ढाँचा नहीं है।
- दायित्व संबंधी अस्पष्टताएँ: IT अधिनियम के ‘सेफ हार्बर’ प्रावधान जनरेटिव AI के लिए अक्सर अपर्याप्त होते हैं, जहाँ एक तटस्थ मध्यस्थ और एक सामग्री निर्माता के बीच का अंतर कम हो जाता है।
- उदाहरण: भारत के AI शासन दिशा–निर्देश एक ‘श्रेणीबद्ध दायित्व प्रणाली’ की अनुशंसा करते हैं, फिर भी AI का कानूनी व्यक्तित्व अनसुलझा रहता है।
- एल्गोरिथम पूर्वाग्रह: मौजूदा कानून निष्पक्षता या समानता के लिए आवधिक ऑडिट अनिवार्य नहीं करते हैं, जिससे AI-आधारित भर्ती या ऋण देने में भेदभाव के मामलों में मुकदमा चलाना मुश्किल हो जाता है।
- डेटा नष्टीकरण का विरोधाभास: DPDP अधिनियम के ‘नष्ट करने के अधिकार’ को लागू करना LLM के लिए तकनीकी रूप से कठिन है, क्योंकि प्रशिक्षित मॉडल से विशिष्ट डेटा बिंदुओं को निकालना अक्सर असंभव होता है।
- अंतरसंचालनीयता अंतराल: नियम अक्सर ‘एजेंटिक AI’ और मल्टीमॉडल मॉडलों के तीव्र विकास से पीछे रह जाते हैं, जिससे ‘पहले नियमन, बाद में निर्माण’ का जोखिम उत्पन्न होता है।
- उदाहरण: नीति आयोग की समावेशी विकास पर 2025 की रिपोर्ट चेतावनी देती है कि घरेलू क्षमता के बिना अत्यधिक नियमन विदेशी मॉडलों पर तकनीकी निर्भरता बढ़ा सकता है।
अपस्ट्रीम (प्रतिप्रवाह) क्षमता और डाउनस्ट्रीम (अनुप्रवाह) विनियमन का लाभ उठाना
- रणनीतिक प्रतिप्रवाह एकीकरण: स्वदेशी कंप्यूट और आधारभूत मॉडल बनाने पर ध्यान केंद्रित करने से विदेशी ‘ब्लैक-बॉक्स’ तकनीकों पर निर्भरता कम होती है, जिनका विनियमन करना कठिन है।
- उदाहरण: इंडियाएआई मिशन ने घरेलू स्टार्ट-अप को सशक्त बनाने के लिए ₹65 प्रति घंटे की रियायती दर पर 38,000 GPU को शामिल किया है।
- राष्ट्रीय डेटासेट का मानकीकरण: एक एकीकृत डेटा प्लेटफॉर्म (AIKosh) बनाने से यह सुनिश्चित होता है कि डेवलपर्स को प्रशिक्षण के लिए उच्च-गुणवत्ता वाले, निष्पक्ष और स्थानीय भाषा में उपलब्ध डेटासेट प्राप्त हों।
- उदाहरण: AIकोष (AIKosh) अब स्वदेशी नवाचार को बढ़ावा देने के लिए 1,200 से अधिक भारत-विशिष्ट डेटासेट प्रदान करता है।
- लक्षित अनुप्रवाह दायित्व: उच्च जोखिम वाली AI पर प्रतिबंध लगाने के बजाय, भारत स्वास्थ्य सेवा, वित्त और बायोमेट्रिक प्रणालियों में तैनाती के लिए विशिष्ट ‘निगरानी और प्रतिक्रिया’ दायित्व जोड़ सकता है।
- संस्थागत क्षमता निर्माण: डीपफेक डिटेक्टर जैसे ‘सुरक्षित और विश्वसनीय AI’ उपकरणों के लिए विशेष रूप से अनुसंधान एवं विकास को वित्तपोषित करने हेतु अनुसंधान नेशनल रिसर्च फाउंडेशन (ANRF) को मजबूत बनाना।
- DPI-सक्षम AI: आधार और UPI जैसे डिजिटल सार्वजनिक अवसंरचना (DPI) के साथ AI को एकीकृत करने से ‘डिजाइन द्वारा समझने योग्य’ प्रणालियाँ बनती हैं, जहाँ अनुपालन स्वतः लागू हो जाता है।
- उदाहरण: वर्ष 2025 भारतजेन एआई मॉडल 22 भारतीय भाषाओं का समर्थन करता है और समावेशी सार्वजनिक सेवा वितरण सुनिश्चित करने के लिए ‘टेक्स्ट एंड स्पीच’ को एकीकृत करता है।
- नवाचार के लिए सैंडबॉक्स: नियामक सैंडबॉक्स स्थापित करने से स्टार्ट-अप्स को पूर्ण पैमाने पर वाणिज्यिक लॉन्च से पहले एक नियंत्रित वातावरण में मॉडल का परीक्षण करने की सुविधा मिलती है।
निष्कर्ष
भारत में AI प्रशासन को ‘प्रतीक्षा करो और देखो’ के दृष्टिकोण से आगे बढ़कर एक सक्रिय और संतुलित ‘दोहरी रणनीति’ अपनानी होगी। एक ओर संप्रभु ‘अग्रणी मॉडल’ क्षमताओं का विकास करते हुए और दूसरी ओर उपभोक्ता संरक्षण व जोखिम-नियंत्रण को सुदृढ़ बनाकर भारत यह सुनिश्चित कर सकता है कि AI समावेशी सामाजिक विकास का प्रभावी साधन बने। अंततः उद्देश्य यह होना चाहिए कि AI -आधारित विकास लोकतांत्रिक विश्वास या नागरिक सुरक्षा की कीमत पर न हो, बल्कि उन्हें सुदृढ़ करे।
To get PDF version, Please click on "Print PDF" button.
Latest Comments