Q. भारत वर्तमान में कृत्रिम बुद्धिमत्ता को मुख्य रूप से मौजूदा आईटी, वित्तीय और डेटा संरक्षण कानूनों के माध्यम से नियंत्रित करता है। भारत के AI पारिस्थितिकी तंत्र के लिए इससे उत्पन्न होने वाली प्रमुख चुनौतियों पर चर्चा कीजिए। अपस्ट्रीम क्षमता निर्माण और डाउनस्ट्रीम उपयोग-आधारित विनियमन का संयोजन भारत के AI शासन ढाँचे को कैसे मजबूत कर सकता है? (15 अंक, 250 शब्द)

प्रश्न की मुख्य माँग

  • वर्तमान कानूनी ढाँचे में प्रमुख चुनौतियाँ
  • अपस्ट्रीम क्षमता निर्माण और डाउनस्ट्रीम उपयोग-आधारित विनियमन

उत्तर

भारत में वर्तमान में कृत्रिम बुद्धिमत्ता को ‘तकनीकी-कानूनी’ ढाँचे के माध्यम से नियंत्रित किया जाता है, जो मुख्य रूप से सूचना प्रौद्योगिकी (IT) अधिनियम, 2000, डिजिटल व्यक्तिगत डेटा संरक्षण (DPDP) अधिनियम, 2023 और क्षेत्र-विशिष्ट वित्तीय विनियमों पर आधारित है। हालाँकि यह “सरल” दृष्टिकोण नवोदित प्रौद्योगिकी को बाधित होने से बचाता है, लेकिन इसमें कृत्रिम बुद्धिमत्ता से होने वाले नुकसानों के लिए राज्य द्वारा अनिवार्य “देखभाल के कर्तव्य” पर केंद्रित एक समर्पित उपभोक्ता सुरक्षा व्यवस्था का अभाव है।

वर्तमान कानूनी ढाँचे में प्रमुख चुनौतियाँ

  • खंडित निगरानी: RBI (वित्त), MeitY (आईटी) और डेटा संरक्षण बोर्ड जैसी कई एजेंसियों में विनियमन विभाजित है, जिसके कारण AI डेवलपर्स के लिए मानक अतिव्यापी या परस्पर विरोधी हो जाते हैं।
  • ‘देखभाल के कर्तव्य’ का अभाव: वर्तमान कानून डेटा गोपनीयता और साइबर अपराध पर केंद्रित हैं, लेकिन AI के “उत्पाद सुरक्षा” पहलू, विशेष रूप से मनोवैज्ञानिक या व्यवहार संबंधी नुकसानों को संबोधित करने में विफल रहते हैं।
    • उदाहरण: चीन के “इमोशनल AI” नियमों के विपरीत, भारत में मनोवैज्ञानिक निर्भरता या एडिक्टिव AI लूप को लक्षित करने के लिए कोई ढाँचा नहीं है।
  • दायित्व संबंधी अस्पष्टताएँ: IT अधिनियम के ‘सेफ हार्बर’ प्रावधान जनरेटिव AI के लिए अक्सर अपर्याप्त होते हैं, जहाँ एक तटस्थ मध्यस्थ और एक सामग्री निर्माता के बीच का अंतर कम हो जाता है।
    • उदाहरण: भारत के AI शासन दिशा–निर्देश एक ‘श्रेणीबद्ध दायित्व प्रणाली’ की अनुशंसा करते हैं, फिर भी AI का कानूनी व्यक्तित्व अनसुलझा रहता है।
  • एल्गोरिथम पूर्वाग्रह: मौजूदा कानून निष्पक्षता या समानता के लिए आवधिक ऑडिट अनिवार्य नहीं करते हैं, जिससे AI-आधारित भर्ती या ऋण देने में भेदभाव के मामलों में मुकदमा चलाना मुश्किल हो जाता है।
  • डेटा नष्टीकरण का विरोधाभास: DPDP अधिनियम के ‘नष्ट करने के अधिकार’ को लागू करना LLM के लिए तकनीकी रूप से कठिन है, क्योंकि प्रशिक्षित मॉडल से विशिष्ट डेटा बिंदुओं को निकालना अक्सर असंभव होता है।
  • अंतरसंचालनीयता अंतराल: नियम अक्सर ‘एजेंटिक AI’ और मल्टीमॉडल मॉडलों के तीव्र विकास से पीछे रह जाते हैं, जिससे ‘पहले नियमन, बाद में निर्माण’ का जोखिम उत्पन्न होता है।
    • उदाहरण: नीति आयोग की समावेशी विकास पर 2025 की रिपोर्ट चेतावनी देती है कि घरेलू क्षमता के बिना अत्यधिक नियमन विदेशी मॉडलों पर तकनीकी निर्भरता बढ़ा सकता है।

अपस्ट्रीम (प्रतिप्रवाह) क्षमता और डाउनस्ट्रीम (अनुप्रवाह) विनियमन का लाभ उठाना

  • रणनीतिक प्रतिप्रवाह एकीकरण: स्वदेशी कंप्यूट और आधारभूत मॉडल बनाने पर ध्यान केंद्रित करने से विदेशी ‘ब्लैक-बॉक्स’ तकनीकों पर निर्भरता कम होती है, जिनका विनियमन करना कठिन है।
    • उदाहरण: इंडियाएआई मिशन ने घरेलू स्टार्ट-अप को सशक्त बनाने के लिए ₹65 प्रति घंटे की रियायती दर पर 38,000 GPU को शामिल किया है।
  • राष्ट्रीय डेटासेट का मानकीकरण: एक एकीकृत डेटा प्लेटफॉर्म (AIKosh) बनाने से यह सुनिश्चित होता है कि डेवलपर्स को प्रशिक्षण के लिए उच्च-गुणवत्ता वाले, निष्पक्ष और स्थानीय भाषा में उपलब्ध डेटासेट प्राप्त हों।
    • उदाहरण: AIकोष (AIKosh) अब स्वदेशी नवाचार को बढ़ावा देने के लिए 1,200 से अधिक भारत-विशिष्ट डेटासेट प्रदान करता है।
  • लक्षित अनुप्रवाह दायित्व: उच्च जोखिम वाली AI पर प्रतिबंध लगाने के बजाय, भारत स्वास्थ्य सेवा, वित्त और बायोमेट्रिक प्रणालियों में तैनाती के लिए विशिष्ट ‘निगरानी और प्रतिक्रिया’ दायित्व जोड़ सकता है।
  • संस्थागत क्षमता निर्माण: डीपफेक डिटेक्टर जैसे ‘सुरक्षित और विश्वसनीय AI’ उपकरणों के लिए विशेष रूप से अनुसंधान एवं विकास को वित्तपोषित करने हेतु अनुसंधान नेशनल रिसर्च फाउंडेशन (ANRF) को मजबूत बनाना।
  • DPI-सक्षम AI: आधार और UPI जैसे डिजिटल सार्वजनिक अवसंरचना (DPI) के साथ AI को एकीकृत करने से ‘डिजाइन द्वारा समझने योग्य’ प्रणालियाँ बनती हैं, जहाँ अनुपालन स्वतः लागू हो जाता है।
    • उदाहरण: वर्ष 2025 भारतजेन एआई मॉडल 22 भारतीय भाषाओं का समर्थन करता है और समावेशी सार्वजनिक सेवा वितरण सुनिश्चित करने के लिए ‘टेक्स्ट एंड स्पीच’ को एकीकृत करता है।
  • नवाचार के लिए सैंडबॉक्स: नियामक सैंडबॉक्स स्थापित करने से स्टार्ट-अप्स को पूर्ण पैमाने पर वाणिज्यिक लॉन्च से पहले एक नियंत्रित वातावरण में मॉडल का परीक्षण करने की सुविधा मिलती है।

निष्कर्ष

भारत में AI प्रशासन को ‘प्रतीक्षा करो और देखो’ के दृष्टिकोण से आगे बढ़कर एक सक्रिय और संतुलित ‘दोहरी रणनीति’ अपनानी होगी। एक ओर संप्रभु ‘अग्रणी मॉडल’ क्षमताओं का विकास करते हुए और दूसरी ओर उपभोक्ता संरक्षण व जोखिम-नियंत्रण को सुदृढ़ बनाकर भारत यह सुनिश्चित कर सकता है कि AI समावेशी सामाजिक विकास का प्रभावी साधन बने। अंततः उद्देश्य यह होना चाहिए कि AI -आधारित विकास लोकतांत्रिक विश्वास या नागरिक सुरक्षा की कीमत पर न हो, बल्कि उन्हें सुदृढ़ करे।

To get PDF version, Please click on "Print PDF" button.

Leave a comment

Your email address will not be published. Required fields are marked *

Need help preparing for UPSC or State PSCs?

Connect with our experts to get free counselling & start preparing

Aiming for UPSC?

Download Our App

      
Quick Revise Now !
AVAILABLE FOR DOWNLOAD SOON
UDAAN PRELIMS WALLAH
Comprehensive coverage with a concise format
Integration of PYQ within the booklet
Designed as per recent trends of Prelims questions
हिंदी में भी उपलब्ध
Quick Revise Now !
UDAAN PRELIMS WALLAH
Comprehensive coverage with a concise format
Integration of PYQ within the booklet
Designed as per recent trends of Prelims questions
हिंदी में भी उपलब्ध

<div class="new-fform">







    </div>

    Subscribe our Newsletter
    Sign up now for our exclusive newsletter and be the first to know about our latest Initiatives, Quality Content, and much more.
    *Promise! We won't spam you.
    Yes! I want to Subscribe.