Q. हाल ही में सोशल मीडिया प्लेटफॉर्म X द्वारा विकसित जनरेटिव AI चैटबॉट Grok, अश्लील छवियों और अपमानजनक टिप्पणियों को उत्पन्न करने में अपनी संलिप्तता के कारण जाँच के दायरे में आ गया है। ऑनलाइन उत्पीड़न और लैंगिक आधारित हिंसा के संदर्भ में Grok जैसे अनियमित AI प्लेटफॉर्मों द्वारा उत्पन्न चुनौतियों पर चर्चा कीजिए। सरकारों और निगमों को जवाबदेही सुनिश्चित करने और उपयोगकर्ताओं, विशेष रूप से महिलाओं को नुकसान से बचाने के लिए इन मुद्दों को कैसे संबोधित करना चाहिए? (250 शब्द, 15 अंक)

प्रश्न की मुख्य माँग

  • ऑनलाइन उत्पीड़न के संदर्भ में चुनौतियाँ
  • लिंग आधारित हिंसा के संदर्भ में चुनौतियाँ
  • जवाबदेही और सुरक्षा के लिए आगे की राह।

उत्तर

प्लेटफॉर्म X द्वारा विकसित AI चैटबॉट Grok हाल ही में आपत्तिजनक सामग्री और विकृत की गई छवियों को निर्मित करने हेतु सक्षम बनाने के कारण विवादों में घिर गया है। बिना सहमति के बदली हुई तस्वीरें और यौन उत्तेजक डीपफेक बनाने की इसकी क्षमता सुरक्षा नियंत्रणों की गंभीर कमी को दर्शाती है। यह मामला दर्शाता है कि कैसे खराब तरीके से विनियमित AI विकास आसानी से व्यापक ऑनलाइन दुर्व्यवहार का साधन बन सकता है।

ऑनलाइन उत्पीड़न के संदर्भ में चुनौतियाँ

  • संस्थागत ‘ट्रोलिंग’: Grok में सुरक्षा उपायों की कमी के कारण सार्वजनिक हस्तियों के खिलाफ बड़े पैमाने पर अपमानजनक और मानहानिकारक सामग्री स्वचालित रूप से तैयार की जा सकती है।
  • दंडमुक्ति और गुमनामी: प्लेटफॉर्म की ‘अनफिल्टर्ड’ विशेषता एक ऐसी संस्कृति को बढ़ावा देती है, जहाँ उपयोगकर्ता आपत्तिजनक AI-जनित सामग्री बनाने के परिणामों से सुरक्षित महसूस करते हैं।
  • एल्गोरिदम द्वारा प्रवर्द्धन: बॉट द्वारा उत्पन्न उत्पीड़नकारी सामग्री अक्सर स्वचालित रूप से सार्वजनिक प्रोफाइल पर होस्ट की जाती है, जिससे किसी भी तरह की रोक लगने से पहले ही यह तेजी से वायरल हो जाती है।
  • जनता के विश्वास का क्षरण: ‘प्रामाणिक दिखने वाली’ गलत सूचना देने की आसानी सभी डिजिटल मीडिया की विश्वसनीयता को कम करती है, जिससे पीड़ितों के लिए उत्पीड़न साबित करना कठिन हो जाता है।
    • उदाहरण:  MeitY ने हाल ही में बताया कि Grok का दुरुपयोग फर्जी खाते बनाने के लिए किया जा रहा है, जो अश्लील छवियों को होस्ट करते हैं और व्यक्तियों को भद्दे तरीके से बदनाम करते हैं।

लैंगिक आधारित हिंसा के संदर्भ में चुनौतियाँ

  • बिना सहमति के डीपफेक पोर्नोग्राफी: खबरों के मुताबिक, कृत्रिम बुद्धिमत्ता (AI) उपकरणों का इस्तेमाल करके महिलाओं की तस्वीरों को उनकी सहमति के बिना अनुचित तरीके से बदला गया है, जिससे निजता और डिजिटल उत्पीड़न को लेकर गंभीर चिंताएँ उत्पन्न हो गई हैं।
  • लैंगिक अल्पसंख्यकों को निशाना बनाना: यह प्लेटफॉर्म यौन उत्पीड़न के समन्वित अभियानों को बढ़ावा देकर लैंगिक अल्पसंख्यकों के प्रति समग्र शत्रुता को और बढ़ा रहा है।
  • महिलाओं के मुद्दों को दबाना: ‘मॉर्फ्ड’ होने या ऑनलाइन उत्पीड़न के डर से महिलाएँ, पत्रकार और कार्यकर्ता अपमान से बचने के लिए सार्वजनिक डिजिटल मंचों से दूर रहने को मजबूर हैं।

जवाबदेही और सुरक्षा के लिए आगे की राह

  • बाध्यकारी AI कानून: सरकारों को ‘स्वैच्छिक सलाह’ से हटकर सख्त, बाध्यकारी कानूनों की ओर बढ़ना चाहिए, जो AI डेवलपर्स को उनके मॉडलों के आउटपुट के लिए उत्तरदायी ठहराते हैं।
    • उदाहरण: ब्रिटेन के ऑनलाइन सुरक्षा अधिनियम से लेकर मैक्सिको के ले ओलंपिया तक, कई देशों के डिजिटल सुरक्षा अधिनियम में बदलाव किए जा रहे हैं।
  • अनिवार्य सुरक्षा ऑडिट: कंपनियों को इमेज जनरेशन फीचर्स लॉन्च करने से पहले ‘व्यापक तकनीकी और शासन की समीक्षा’ करने की आवश्यकता होनी चाहिए।
    • उदाहरण: अश्लील तस्वीरें बनाने के लिए Grok के दुरुपयोग के बाद भारत सरकार ने X को 72 घंटों के भीतर कार्रवाई रिपोर्ट (ATR) प्रस्तुत करने का आदेश दिया।
  • ‘डिजाइन द्वारा सुरक्षा’ फ्रेमवर्क: AI मॉडलों में ‘छवियों को विकृत करने, ‘नग्नता’ या बिना सहमति के वास्तविक मानव चेहरों के बदलाव से संबंधित संकेतों के खिलाफ हार्ड-कोडेड ब्लॉक होने चाहिए।
    • उदाहरण: भारत के AI शासन दिशा-निर्देश ‘सुरक्षा और विश्वसनीय AI’ स्तंभ की वकालत करते हैं, जो नवाचार की गति के बजाय मानवाधिकारों को प्राथमिकता देता है।
  • त्वरित कार्रवाई तंत्र: प्लेटफॉर्म को बिना सहमति के अंतरंग छवियों (NCII) को हटाने और आपत्तिजनक खातों को बंद करने के लिए 24 घंटे की समयसीमा लागू करनी होगी।
    • उदाहरण: IT नियम 2021 के तहत, प्लेटफॉर्म न्यायालय या सरकारी आदेश प्राप्त होने के 36 घंटों के भीतर अश्लील सामग्री को हटाने के लिए बाध्य हैं।
  • वैश्विक सहयोग और मानक: हानिकारक AI मीडिया के स्रोत का पता लगाने के लिए जाँचकर्ताओं को सक्षम बनाने हेतु ‘सामग्री प्रमाणिकता’ (वॉटरमार्किंग) के लिए अंतरराष्ट्रीय मानक स्थापित करना।
    • उदाहरण: ‘यू.एन वुमेन’ ने वैश्विक स्तर पर क्षेत्र-व्यापी विनियमन की माँग की है, जिसके तहत सार्वजनिक रूप से जारी किए जाने से पहले AI उपकरणों के लिए नैतिक मानक का पालन करना अनिवार्य हो।

निष्कर्ष

Grok विवाद इस बात की स्पष्ट चेतावनी देता है कि अनियंत्रित AI डिजिटल सुरक्षा के लिए एक गंभीर खतरा है। AI युग में सच्ची प्रगति के लिए “लोगों को प्राथमिकता” देने वाला दृष्टिकोण आवश्यक है, जहाँ कानून द्वारा महिलाओं की पहचान की रक्षा की जाए और उत्पीड़न से पैसा कमाने वालों को आपराधिक कृत्य के तहत दंडित किया जाए।

To get PDF version, Please click on "Print PDF" button.

Leave a comment

Your email address will not be published. Required fields are marked *

Need help preparing for UPSC or State PSCs?

Connect with our experts to get free counselling & start preparing

Aiming for UPSC?

Download Our App

      
Quick Revise Now !
AVAILABLE FOR DOWNLOAD SOON
UDAAN PRELIMS WALLAH
Comprehensive coverage with a concise format
Integration of PYQ within the booklet
Designed as per recent trends of Prelims questions
हिंदी में भी उपलब्ध
Quick Revise Now !
UDAAN PRELIMS WALLAH
Comprehensive coverage with a concise format
Integration of PYQ within the booklet
Designed as per recent trends of Prelims questions
हिंदी में भी उपलब्ध

<div class="new-fform">







    </div>

    Subscribe our Newsletter
    Sign up now for our exclusive newsletter and be the first to know about our latest Initiatives, Quality Content, and much more.
    *Promise! We won't spam you.
    Yes! I want to Subscribe.