100% तक छात्रवृत्ति जीतें

रजिस्टर करें

डिजिटल बाल दुर्व्यवहार: AI-आधारित शोषण का खतरा

Lokesh Pal April 04, 2025 02:50 10 0

संदर्भ

हाल ही में ब्रिटिश सरकार के विज्ञान, नवाचार और प्रौद्योगिकी विभाग ने AI सुरक्षा संस्थान के साथ संयुक्त रूप से पहली अंतरराष्ट्रीय AI सुरक्षा रिपोर्ट, 2025 जारी की।

अंतरराष्ट्रीय AI सुरक्षा रिपोर्ट, 2025 के प्रमुख निष्कर्ष

  • उभरते हुए AI-संबंधित नुकसान: मौजूदा AI-संबंधित नुकसानों में घोटाले, बाल यौन शोषण सामग्री (Child Sexual Abuse Material-CSAM), गैर-सहमति प्राप्त अंतरंग तस्वीरें (Non Consensual Intimate Imagery-NCII), पूर्वाग्रह और गोपनीयता उल्लंघन शामिल हैं, जबकि AI-सक्षम हैकिंग, जैविक हमले और बड़े पैमाने पर नौकरी से निकाले जाने जैसे उभरते खतरे अधिक स्पष्ट होते जा रहे हैं।
  • डीपफेक दुरुपयोग की लैंगिक प्रकृति: नकली अश्लील या अंतरंग सामग्री का उपयोग करके दुरुपयोग मुख्य रूप से महिलाओं और लड़कियों को लक्षित करता है: वर्ष 2019 के एक अध्ययन में पाया गया कि 96% डीपफेक वीडियो अश्लील हैं।
  • शोषण के लिए नकली सामग्री: दुर्भावनापूर्ण अभिकर्ता लक्षित व्यक्तियों या संगठनों को जबरन वसूली, घोटाला, मनोवैज्ञानिक रूप से हस्तक्षेप करने के लिए AI-जनरेटेड नकली सामग्री का दुरुपयोग कर सकते हैं।
  • बच्चे और AI-जनरेटेड यौन सामग्री: स्टेबल डिफ्यूजन जैसे AI मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले ‘ओपन डेटासेट’ में सैकड़ों CSAM छवियाँ पाई गईं।
  • प्रति उपायों की सीमित प्रभावकारिता: प्रति उपाय जो लोगों को नकली AI-जनित सामग्री का पता लगाने में मदद करते हैं, जैसे चेतावनी लेबल और वॉटरमार्किंग, मिश्रित प्रभावकारिता दिखाते हैं।

डिजिटल बाल शोषण

  • डिजिटल बाल शोषण का तात्पर्य बच्चों का शोषण या उन्हें नुकसान पहुँचाने के लिए ऑनलाइन प्लेटफ़ॉर्म, तकनीकों और AI उपकरणों के उपयोग से है।
    • इसमें साइबरबुलिंग, बच्चों को डराना-धमकाना, बिना सहमति के स्पष्ट सामग्री साझा करना और AI द्वारा उत्पन्न बाल यौन शोषण सामग्री (CSAM) शामिल हैं।
      • लैंसेट के एक अध्ययन के अनुसार, दुनिया भर में 12 में से एक बच्चा ऑनलाइन यौन शोषण का सामना करता है।

बाल शोषण में कृत्रिम बुद्धिमत्ता (AI) की भूमिका

  • AI-जनरेटेड चाइल्ड सेक्सुअल एब्यूज मटेरियल (CSAM): डीपफेक तकनीक और AI-आधारित इमेज सिंथेसिस वास्तविक पीड़ितों को शामिल किए बिना यथार्थवादी बाल शोषण छवियाँ उत्पन्न कर सकते हैं।
    • इंटरनेट वॉच फाउंडेशन (Internet Watch Foundation-IWF) के आँकड़ों के अनुसार, AI-जनरेटेड CSAM में 380 प्रतिशत की वृद्धि हुई है, वर्ष 2024 में 245 पुष्ट रिपोर्ट की तुलना में वर्ष 2023 में 51 रिपोर्ट की पुष्टि हुई है।
  • ग्रूमिंग और सेक्सटॉर्शन: अपराधी बच्चों या भरोसेमंद वयस्कों का रूप धारण करने के लिए AI चैटबॉट और वॉयस सिंथेसिस टूल का उपयोग कर रहे हैं, जो वास्तविक दुनिया में दुर्व्यवहार का कारण बन सकते हैं।
  • स्वचालित उत्पीड़न और साइबर बदमाशी: AI उपकरण स्पैम संदेशों, बॉट-जनरेटेड खतरों और डीपफेक ब्लैकमेल के माध्यम से बड़े पैमाने पर स्वचालित साइबर बुलिंग को सक्षम बनाते हैं।
    • उदाहरण: वर्ष 2024 में, दक्षिण कोरियाई अधिकारियों ने एक मामले का पर्दाफाश किया, जिसमें स्कूली छात्राओं की AI-जनरेटेड डीपफेक छवियाँ बनाई गईं और ऑनलाइन समूहों में प्रसारित की गईं।
  • डेटा शोषण और गोपनीयता उल्लंघन: बच्चों का व्यक्तिगत डेटा, जिसमें चित्र, प्राथमिकताएँ और आवाज के नमूने शामिल हैं, सोशल मीडिया और ऑनलाइन प्लेटफॉर्मों से एकत्र किया जाता है।

डिजिटल बाल दुर्व्यवहार का प्रभाव

  • भावनात्मक आघात: AI द्वारा उत्पन्न उत्पीड़न बच्चों में चिंता, अवसाद और आत्महत्या की प्रवृत्ति को जन्म दे सकता है।
  • पहचान की चोरी और गोपनीयता का नुकसान: AI का उपयोग बच्चों की डिजिटल प्रतिकृतियाँ बनाने के लिए किया जा सकता है, जो उनके भविष्य की ऑनलाइन उपस्थिति को प्रभावित करता है।
  • सामाजिक अलगाव: AI-आधारित दुर्व्यवहार के शिकार अक्सर डर और उपेक्षा के कारण सामाजिक संपर्कों से दूर हो जाते हैं।
  • प्रौद्योगिकी में अविश्वास: माता-पिता अत्यधिक प्रतिबंधात्मक हो सकते हैं, जिससे बच्चों की स्वस्थ डिजिटल सहभागिता सीमित हो सकती है।
  • साइबर अपराध में वृद्धि: AI बड़े पैमाने पर दुर्व्यवहार को सक्षम बनाता है, जिससे कानून प्रवर्तन एजेंसियों पर बोझ बढ़ जाता है।

डिजिटल बाल दुर्व्यवहार को रोकने में चुनौतियाँ

  • AI-संचालित CSAM उपकरणों की ओपन-वेब पहुँच: AI-संचालित CSAM उपकरण, जैसे कि डीपफेक जनरेटर, टेक्स्ट-टू-इमेज AI मॉडल और सिंथेटिक वॉयस सिमुलेटर, ओपन वेब और डार्क वेब पर तेजी से सुलभ हो रहे हैं, जिससे अपराधियों के लिए शोषणकारी सामग्री बनाना आसान हो गया है।
  • क्षेत्राधिकार संबंधी मुद्दे: AI-जनरेटेड दुर्व्यवहार सामग्री अक्सर अंतरराष्ट्रीय सीमाओं के पार बनाई और वितरित की जाती है, जिससे प्रवर्तन प्रयास जटिल हो जाते हैं।
  • स्पष्ट कानूनी परिभाषाओं का अभाव: कई देशों ने अभी तक AI-जनित CSAM को स्पष्ट रूप से परिभाषित नहीं किया है, जिससे अपराधियों के लिए अभियोजन से बचने के रास्ते खुल जाते हैं।
    • कई देशों में AI-जनित CSAM को अपराध घोषित करने वाले कानून का अभाव है, क्योंकि इसमें कोई वास्तविक बच्चा शामिल नहीं होता है।
  • अपराधियों की गुमनामी: अपराधी पहचान से बचने के लिए वर्चुअल प्राइवेट नेटवर्क (Virtual Private Networks-VPN), एन्क्रिप्टेड मैसेजिंग ऐप और विकेंद्रीकृत नेटवर्क का उपयोग करते हैं।
  • जागरूकता की कमी: माता-पिता और शिक्षक प्रायः जोखिमों को कम आँकते हैं, जिससे बच्चे ग्रूमिंग और सेक्सटॉर्शन के प्रति संवेदनशील हो जाते हैं।

AI-संचालित CSAM जाँच में नैतिक दुविधाएँ

  • बच्चों की सुरक्षा बनाम गोपनीयता का उल्लंघन: AI-आधारित स्कैनिंग से बच्चों के शोषण को रोका जा सकता है, लेकिन इससे गोपनीयता का मुद्दा भी उठता है।
  • सामूहिक निगरानी बनाम नागरिक स्वतंत्रता: निजी सामग्री की AI निगरानी अत्यधिक कॉरपोरेट और सरकारी निगरानी को सामान्य बना सकती है। CSAM के लिए संदेशों को स्कैन करने के लिए एन्क्रिप्शन को तोड़ना सभी उपयोगकर्ताओं को गोपनीयता जोखिमों के लिए प्रदर्शित कर सकता है।
    • उदाहरण: CSAM के लिए एन्क्रिप्ट किए गए संदेशों को स्कैन करना सत्तावादी शासन द्वारा सरकार से असंतुष्ट लोगों की निगरानी करने की अनुमति दे सकता है।
  • झूठी सकारात्मकता का जोखिम: AI पहचान प्रणाली में संदर्भ की कमी होती है और वे गलती से निर्दोष सामग्री को CSAM के रूप में चिह्नित कर सकते हैं।
    • उदाहरण: AI द्वारा मेडिकल या पारिवारिक फोटो की गलत पहचान करने के कारण माता-पिता पर गलत आरोप लगाए गए हैं, जिससे कानूनी प्रतिष्ठा को नुकसान हुआ है।
  • AI कंपनियों की मनमानी कार्रवाई: इस बात की संभावना है कि बिना निगरानी के AI नीतियों को लागू करने वाली टेक कंपनियाँ मनमानी कार्रवाई कर सकती हैं।
    • उदाहरण: गूगल की अपनी पारदर्शिता रिपोर्ट के अनुसार, इसने जून से दिसंबर 2021 की अवधि के दौरान 1,40,868 खातों को निष्क्रिय कर दिया।
  • AI-जनरेटेड CSAM को परिभाषित करना: AI-जनरेटेड CSAM में वास्तविक पीड़ित शामिल नहीं हो सकता है, जिससे कानूनी और नैतिक प्रवर्तन जटिल हो जाता है।
    • उदाहरण: मौजूदा बाल संरक्षण कानूनों के तहत AI-जनरेटेड CSAM पर मुकदमा चलाने के लिए न्यायालय में संघर्ष की स्थिति उत्पन्न हो जाती है।

जस्ट राइट्स फॉर चिल्ड्रन अलायंस बनाम एस. हरीश (2024) में सर्वोच्च न्यायालय की टिप्पणियाँ

  • CSAM को देखना, डाउनलोड करना या संगृहीत करना एक आपराधिक अपराध है: सर्वोच्च न्यायालय  ने मद्रास उच्च न्यायालय के निर्णय को पलट दिया और फैसला सुनाया कि बाल यौन शोषण और दुर्व्यवहार सामग्री (CSAM ) को देखना, डाउनलोड करना, संगृहीत करना या रखना निम्नलिखित के तहत दंडनीय अपराध है:
    • POCSO अधिनियम, 2012 की धारा 15 (बाल यौन शोषण सामग्री रखने को अपराध मानती है)।
    • IT अधिनियम, 2000 की धारा 67B (बाल शोषण सामग्री ब्राउजर करने, प्रसारित करने और प्रकाशित करने को दंडनीय बनाती है)।
  • रचनात्मक नियंत्रण सिद्धांत: भले ही कोई व्यक्ति CSAM को देखता है और बाद में उसे हटा देता है, लेकिन अगर उसके पास इसे नियंत्रित करने का ज्ञान और शक्ति थी, तो वह उत्तरदायी है। ऐसी सामग्री के लिंक प्रसारित करना या बेचना भी दंडनीय है।

डिजिटल बाल दुर्व्यवहार को रोकने के लिए अंतरराष्ट्रीय उपाय

  • लैंजारोट कन्वेंशन: लैंजारोट कन्वेंशन पहली क्षेत्रीय संधि है, जो विशेष रूप से बच्चों को यौन हिंसा से बचाने के लिए समर्पित है। वर्ष 2007 में स्पेन के लैंजारोट में अपनाया गया यह कन्वेंशन वर्ष 2010 में लागू हुआ और यूरोप परिषद के सभी सदस्य देशों द्वारा इस पर हस्ताक्षर किए गए हैं। इसमें बच्चों के विरुद्ध सभी प्रकार के यौन शोषण और दुर्व्यवहार को अपराध घोषित किया गया है।
  • इंटरनेट वॉच फाउंडेशन (Internet Watch Foundation-IWF): ऑनलाइन बाल शोषण सामग्री की पहचान करता है और उसे हटाता है।
  • Google का कंटेंट सेफ्टी API मैच: CSAM का पता लगाने और रिपोर्ट करने के लिए आर्टिफिशियल इंटेलिजेंस का उपयोग करता है।
  • यूनाइटेड किंगडम: कंप्यूटर द्वारा बनाई गई “छद्म छवि” जो बाल यौन शोषण को दर्शाती है, उसे वास्तविक छवि के समान माना जाता है और इसे रखना, प्रकाशित करना या स्थानांतरित करना अवैध है।
  • प्रोजेक्ट अरचिन्ड: यह इंटरनेट पर बाल यौन शोषण सामग्री (CSAM) से निपटने के लिए कनाडाई सेंटर फॉर चाइल्ड प्रोटेक्शन द्वारा विकसित एक अभिनव उपकरण है।

भारत में बच्चों के डिजिटल शोषण की रोकथाम के उपाय

  • इंटरनेट सेवा प्रदाताओं (ISP) द्वारा बच्चों को ऑनलाइन यौन शोषण से बचाने के लिए लागू किए जाने वाले कदम। ये हैं:
    • वेबसाइटों को ब्लॉक करना: सरकार इंटरपोल की “सबसे खराब सूची” के आधार पर अत्यधिक बाल यौन शोषण सामग्री (Child Sexual Abuse Material-CSAM) वाली वेबसाइटों को ब्लॉक करती है।
      • यह सूची केंद्रीय अन्वेषण ब्यूरो (Central Bureau of Investigation-CBI) (इंटरपोल के लिए राष्ट्रीय नोडल एजेंसी) द्वारा दूरसंचार विभाग (Department of Telecommunications-DoT) के साथ साझा की जाती है।
      • DoT प्रमुख इंटरनेट सेवा प्रदाताओं (Internet Service Providers-ISP) को ऐसी वेबसाइटों को ब्लॉक करने का निर्देश देता है।
    • CSAM को गतिशील रूप से हटाना: भारत में ISP  को इंटरनेट वॉच फाउंडेशन (Internet Watch Foundation-IWF), UK सूची के आधार पर CSAM को गतिशील रूप से अपनाना और हटाना आवश्यक है।
  • साइबर सुरक्षा जागरूकता और शिक्षा: इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) ने सूचना सुरक्षा शिक्षा और जागरूकता (ISEA) कार्यक्रम शुरू किया है।
  • आईटी अधिनियम, 2000: धारा 67B इलेक्ट्रॉनिक रूप में बाल पोर्नोग्राफी को प्रकाशित करने, ब्राउज करने या प्रसारित करने के लिए कठोर दंड निर्धारित करती है।
  • ऑनलाइन साइबर अपराध रिपोर्टिंग पोर्टल (www.cybercrime.gov.in): यह पोर्टल जनता को बाल पोर्नोग्राफी, बाल यौन शोषण सामग्री (CSAM) और यौन रूप से स्पष्ट सामग्री के मामलों की गुमनाम रूप से या निगरानी के साथ रिपोर्ट करने में सक्षम बनाता है।
  • यौन अपराधों से बच्चों का संरक्षण (POCSO) अधिनियम, 2012
    • धारा 15: बाल पोर्नोग्राफिक सामग्री का आपराधिक भंडारण।
    • धारा 43: केंद्र और राज्य सरकार द्वारा जागरूकता अभियान चलाने का आदेश।
  • भारतीय न्याय संहिता (Bharatiya Nyay Sanhit-BNS): भारतीय न्याय संहिता की धारा 294 अश्लील सामग्री की बिक्री, वितरण या सार्वजनिक प्रदर्शन को दंडित करती है, जबकि धारा 295 बच्चों को ऐसी अश्लील वस्तुओं को बेचना, वितरित करना या प्रदर्शित करना अवैध बनाती है।
  • भारत के मौजूदा कानून विशेष रूप से AI-जनरेटेड CSAM को संबोधित नहीं करते हैं। 

आगे की राह

  • कानूनी शब्दावली को अपडेट करना: राष्ट्रीय मानवाधिकार आयोग (National Human Rights Commission of India-NHRC) की सलाह (अक्टूबर 2023) द्वारा अनुशंसित अधिक व्यापक परिभाषा के लिए ‘बाल पोर्नोग्राफी’ को बाल यौन शोषण सामग्री (Child Sexual Abuse Material-CSAM) से बदलने के लिए POCSO अधिनियम में संशोधन करना।
  • IT अधिनियम में ‘यौन रूप से स्पष्ट’ की परिभाषा: CSAM की वास्तविक समय की पहचान, निगरानी और अवरोधन की सुविधा के लिए IT अधिनियम की धारा 67B के तहत ‘यौन रूप से स्पष्ट’ परिभाषा पेश करना।
  • बिचौलियों की परिभाषा का विस्तार: वर्चुअल प्राइवेट नेटवर्क (Virtual Private Networks-VPN), वर्चुअल प्राइवेट सर्वर (Virtual Private Servers-VPS) और क्लाउड सेवाओं को बिचौलियों के रूप में स्पष्ट रूप से शामिल करने के लिए IT अधिनियम में संशोधन करना,  ताकि CSAM अनुपालन के लिए उन पर वैधानिक दायित्व लागू किए जा सकें।
  • AI-जनरेटेड CSAM का अपराधीकरण: डीपफेक और AI-संश्लेषित बाल दुर्व्यवहार सामग्री को स्पष्ट रूप से दंडित करने के लिए कानूनों को अपडेट करना।
    • उदाहरण: यूनाइटेड किंगडम बच्चों की यौन छवियाँ बनाने के लिए इस्तेमाल किए जाने वाले कृत्रिम बुद्धिमत्ता उपकरणों के खिलाफ कानून पेश करने वाला पहला देश बन गया।
  • अंतरराष्ट्रीय सहयोग और संयुक्त राष्ट्र रूपरेखा: वैश्विक सर्वोत्तम प्रथाओं के साथ संरेखित करने के लिए संयुक्त राष्ट्र महासभा में ‘आपराधिक उद्देश्यों के लिए सूचना और संचार प्रौद्योगिकी के उपयोग का मुकाबला करने’ पर संयुक्त राष्ट्र मसौदा सम्मेलन को अपनाने का समर्थन करना।
  • यौन अपराधियों का राष्ट्रीय डेटाबेस बनाना: बाल यौन शोषण सामग्री (Child Sexual Abuse Material-CSAM) तक पहुँचने या वितरित करने में शामिल व्यक्तियों को राष्ट्रीय रजिस्ट्री में सूचीबद्ध किया जाना चाहिए और उन्हें बाल-संबंधी रोजगार से प्रतिबंधित किया जाना चाहिए।
  • स्कूलों में डिजिटल साक्षरता: उदाहरण: UK की एजुकेशन फॉर ए कनेक्टेड वर्ल्ड रूपरेखा बच्चों को इंटरैक्टिव पाठों और माता-पिता के मार्गदर्शन के माध्यम से ऑनलाइन सुरक्षा, सुरक्षित इंटरनेट अभ्यास आदि सिखाती है।

निष्कर्ष 

इस दुरुपयोग को रोकने के लिए AI, एन्क्रिप्शन और ऑनलाइन प्लेटफॉर्मों को विनियमित करके डिजिटल बाल दुर्व्यवहार का मुकाबला करने में ‘आरोपी-केंद्रित’ और ‘कार्रवाई-केंद्रित’ से ‘उपकरण-केंद्रित’ दृष्टिकोण में बदलाव महत्त्वपूर्ण है।

Final Result – CIVIL SERVICES EXAMINATION, 2023. PWOnlyIAS is NOW at three new locations Mukherjee Nagar ,Lucknow and Patna , Explore all centers Download UPSC Mains 2023 Question Papers PDF Free Initiative links -1) Download Prahaar 3.0 for Mains Current Affairs PDF both in English and Hindi 2) Daily Main Answer Writing , 3) Daily Current Affairs , Editorial Analysis and quiz , 4) PDF Downloads UPSC Prelims 2023 Trend Analysis cut-off and answer key

THE MOST
LEARNING PLATFORM

Learn From India's Best Faculty

      

Final Result – CIVIL SERVICES EXAMINATION, 2023. PWOnlyIAS is NOW at three new locations Mukherjee Nagar ,Lucknow and Patna , Explore all centers Download UPSC Mains 2023 Question Papers PDF Free Initiative links -1) Download Prahaar 3.0 for Mains Current Affairs PDF both in English and Hindi 2) Daily Main Answer Writing , 3) Daily Current Affairs , Editorial Analysis and quiz , 4) PDF Downloads UPSC Prelims 2023 Trend Analysis cut-off and answer key

<div class="new-fform">







    </div>

    Subscribe our Newsletter
    Sign up now for our exclusive newsletter and be the first to know about our latest Initiatives, Quality Content, and much more.
    *Promise! We won't spam you.
    Yes! I want to Subscribe.