प्रश्न की मुख्य माँग
- इस बात पर प्रकाश डालें कि कैसे जनरेटिव AI का उदय साइबर अपराधों की प्रकृति को तेजी से विकसित कर रहा है, जैसा कि अंतर्राष्ट्रीय AI सुरक्षा रिपोर्ट 2025 द्वारा उजागर किया गया है।
- AI-जनरेटेड चाइल्ड सेक्सुअल एब्यूज मटीरियल (CSAM) को संबोधित करने में भारत के वर्तमान कानूनी ढांचे की पर्याप्तता की जाँच कीजिए।
- बाल संरक्षण कानूनों को भविष्य के लिए सुरक्षित बनाने के लिए आवश्यक सुधारों पर चर्चा कीजिए।
|
उत्तर
जनरेटिव AI, जो टेक्स्ट, इमेज एवं वीडियो बनाता है, का बाल यौन शोषण सामग्री (CSAM) बनाने के लिए तेजी से शोषण किया जा रहा है। भारत के कानून, जिनमें POCSO अधिनियम, 2012 तथा IT अधिनियम, 2000 शामिल हैं, CSAM को अपराध मानते हैं, लेकिन उनमें AI-विशिष्ट प्रावधानों का अभाव है। अंतर्राष्ट्रीय AI सुरक्षा रिपोर्ट वर्ष 2025 में DeepFake CSAM में वृद्धि पर प्रकाश डाला गया है, जिसके कारण भारत की कानूनी तैयारियों की समीक्षा की आवश्यकता है।
जनरेटिव AI एवं साइबर अपराधों का उदय
- CSAM प्रसार में AI की भूमिका: जनरेटिव AI उपकरण पारंपरिक कानून प्रवर्तन विधियों को दरकिनार करते हुए अति-यथार्थवादी बाल यौन शोषण सामग्री (CSAM) बना सकते हैं।
- उदाहरण के लिए: इंटरनेट वॉच फ़ाउंडेशन की वर्ष 2024 की रिपोर्ट ने AI द्वारा जनरेटेड CSAM के ऑनलाइन खुले तौर पर वितरित होने में वृद्धि का खुलासा किया, जिससे पता लगाना एवं हटाना अधिक जटिल हो गया।
- वास्तविकता एवं AI का धुंधलापन: AI वास्तविक छवियों में हेरफेर कर सकता है या DeepFake CSAM उत्पन्न कर सकता है, जिससे पीड़ित की प्रामाणिकता का निर्धारण करना कठिन हो जाता है।
- पहुँच एवं निर्माण में आसानी: ओपन-सोर्स AI मॉडल गैर-तकनीकी उपयोगकर्ताओं को बड़े पैमाने पर CSAM उत्पन्न करने में सक्षम बनाते हैं, जिससे संगठित आपराधिक नेटवर्क पर निर्भरता कम होती है।
- उदाहरण के लिए: वर्ल्ड इकोनॉमिक फ़ोरम ने वर्ष 2023 के एक पेपर में इस बात पर प्रकाश डाला कि कैसे जनरेटिव AI बच्चों की सजीव छवियाँ बना सकता है, जिससे व्यापक दुरुपयोग के बारे में चिंताएँ बढ़ गई हैं।
- गुमनामता एवं एन्क्रिप्शन जोखिम: AI द्वारा संचालित एन्क्रिप्शन एवं गुमनामी उपकरण अपराधियों को छिपे हुए ऑनलाइन नेटवर्क में काम करने की अनुमति देते हैं, जिससे कानून प्रवर्तन प्रयास जटिल हो जाते हैं।
- कानूनी वर्गीकरण में चुनौतियाँ: AI-जनरेटेड CSAM में वास्तविक बच्चे शामिल नहीं होते हैं, जिसके कारण कानूनी खामियां पैदा होती हैं, जहां अपराधी दावा करते हैं कि वास्तव में कोई दुर्व्यवहार नहीं हुआ।
भारत के मौजूदा कानूनी ढाँचे की पर्याप्तता
- वास्तविक पीड़ितों पर ध्यान केंद्रित करना: मौजूदा भारतीय कानून वास्तविक बच्चों से जुड़े CSAM को अपराध मानते हैं, लेकिन पूरी तरह से AI-जनरेटेड सामग्री के लिए प्रावधानों का अभाव है।
- उदाहरण के लिए: IT अधिनियम की धारा 67B CSAM को प्रकाशित या प्रसारित करने को दंडित करती है, लेकिन AI-जनरेटेड इमेजरी को स्पष्ट रूप से कवर नहीं करती है।
- कोई AI-विशिष्ट प्रतिबंध नहीं: भारतीय कानून CSAM उत्पन्न करने में सक्षम AI उपकरणों के कब्जे या निर्माण को अपराध नहीं मानते हैं।
- उदाहरण के लिए: UK का प्रस्तावित कानून (वर्ष 2025) भारत के मौजूदा कानूनी ढांचे के विपरीत, CSAM निर्माण के लिए AI उपकरणों को रखना अवैध बनाता है।
- CSAM की सीमित परिभाषा: भारतीय कानूनों में “चाइल्ड पोर्नोग्राफ़ी” शब्द में दुर्व्यवहार के AI-जनरेटेड या सिंथेटिक चित्रण शामिल नहीं हैं।
- उदाहरण के लिए: राष्ट्रीय मानवाधिकार आयोग (2023) ने व्यापक कवरेज के लिए “चाइल्ड पोर्नोग्राफ़ी” को “CSAM” से बदलने के लिए POCSO अधिनियम को अपडेट करने की सिफारिश की।
- बिचौलियों के लिए कमजोर दायित्व: भारतीय कानून स्पष्ट रूप से VPN, क्लाउड सेवाओं या AI डेवलपर्स को CSAM निर्माण को सक्षम करने के लिए उत्तरदायी नहीं ठहराते हैं।
- उदाहरण के लिए: डिजिटल इंडिया अधिनियम वर्ष 2023 (प्रस्तावित) का उद्देश्य बिचौलियों पर अधिक कठोर दायित्व लागू करना है, लेकिन यह समीक्षाधीन है।
- प्रारंभिक पहचान तंत्र का अभाव: भारत में प्रसार से पहले AI-जनित CSAM का पता लगाने के लिए सक्रिय निगरानी प्रणालियों का अभाव है।
भविष्य के लिए बाल संरक्षण कानूनों को बेहतर बनाने के लिए सुधार की आवश्यकता है
- CSAM परिभाषा का विस्तार करना: POCSO अधिनियम में “चाइल्ड पोर्नोग्राफी” को “CSAM” से बदलना चाहिए ताकि AI-जनरेटेड एवं सिंथेटिक सामग्री को शामिल किया जा सके।
- उदाहरण के लिए: यूरोपीय संघ के वर्ष 2024 डिजिटल सुरक्षा अधिनियम ने कानूनी खामियों को दूर करते हुए AI-जनरेटेड सामग्री को शामिल करने के लिए CSAM को फिर से परिभाषित किया।
- AI CSAM उपकरणों को अपराधी बनाना: कानूनों को CSAM उत्पन्न करने के लिए डिज़ाइन किए गए AI उपकरणों के निर्माण, कब्जे एवं वितरण पर प्रतिबंध लगाना चाहिए।
- उदाहरण के लिए: UK का 2025 का कानून न केवल उपयोगकर्ताओं को बल्कि CSAM निर्माण के लिए उपयोग किए जाने वाले AI मॉडल के निर्माताओं को भी दंडित करता है।
- मध्यस्थों द्वारा अनिवार्य रिपोर्टिंग: डिजिटल प्लेटफॉर्म, VPN एवं क्लाउड सेवाओं को AI-जनरेटेड CSAM की रिपोर्ट करना कानूनी रूप से आवश्यक होना चाहिए।
- AI डिटेक्शन सिस्टम विकसित करें: भारत को AI-जनरेटेड कंटेंट की रीयल-टाइम ट्रैकिंग एवं ब्लॉकिंग के लिए AI-आधारित CSAM डिटेक्शन टूल में निवेश करना चाहिए।
- उदाहरण के लिए: गूगल का “सामग्री सुरक्षा API” ऑनलाइन फैलने से पहले CSAM का पता लगाने एवं उसे चिह्नित करने के लिए AI का उपयोग करता है।
- वैश्विक सम्मेलनों के साथ संरेखित करें: भारत को साइबर अपराधों पर संयुक्त राष्ट्र मसौदा सम्मेलन को अपनाना चाहिए ताकि यह सुनिश्चित किया जा सके कि AI-संचालित CSAM से वैश्विक स्तर पर निपटा जा सके।
- उदाहरण के लिए: संयुक्त राष्ट्र महासभा (वर्ष 2025) से AI-संचालित बाल दुर्व्यवहार सामग्री को विनियमित करने के लिए एक अंतर्राष्ट्रीय कानूनी ढांचा पेश करने की उम्मीद है।
AI-जनित CSAM से निपटने के लिए एक सक्रिय, बहु-हितधारक दृष्टिकोण अनिवार्य है। मौजूदा साइबर कानूनों को मजबूत करना, AI-संचालित पहचान तंत्रों को एकीकृत करना एवं वैश्विक सहयोग को बढ़ावा देना एक लचीला ढांचा तैयार कर सकता है। एक गतिशील कानूनी प्रणाली, तकनीकी सतर्कता तथा निरंतर नीति अनुकूलन के साथ मिलकर डिजिटल युग में मजबूत बाल संरक्षण सुनिश्चित करेगी।
To get PDF version, Please click on "Print PDF" button.
Latest Comments