प्रश्न की मुख्य माँग
- ऑनलाइन उत्पीड़न के संदर्भ में चुनौतियाँ
- लिंग आधारित हिंसा के संदर्भ में चुनौतियाँ
- जवाबदेही और सुरक्षा के लिए आगे की राह।
|
उत्तर
प्लेटफॉर्म X द्वारा विकसित AI चैटबॉट Grok हाल ही में आपत्तिजनक सामग्री और विकृत की गई छवियों को निर्मित करने हेतु सक्षम बनाने के कारण विवादों में घिर गया है। बिना सहमति के बदली हुई तस्वीरें और यौन उत्तेजक डीपफेक बनाने की इसकी क्षमता सुरक्षा नियंत्रणों की गंभीर कमी को दर्शाती है। यह मामला दर्शाता है कि कैसे खराब तरीके से विनियमित AI विकास आसानी से व्यापक ऑनलाइन दुर्व्यवहार का साधन बन सकता है।
ऑनलाइन उत्पीड़न के संदर्भ में चुनौतियाँ
- संस्थागत ‘ट्रोलिंग’: Grok में सुरक्षा उपायों की कमी के कारण सार्वजनिक हस्तियों के खिलाफ बड़े पैमाने पर अपमानजनक और मानहानिकारक सामग्री स्वचालित रूप से तैयार की जा सकती है।
- दंडमुक्ति और गुमनामी: प्लेटफॉर्म की ‘अनफिल्टर्ड’ विशेषता एक ऐसी संस्कृति को बढ़ावा देती है, जहाँ उपयोगकर्ता आपत्तिजनक AI-जनित सामग्री बनाने के परिणामों से सुरक्षित महसूस करते हैं।
- एल्गोरिदम द्वारा प्रवर्द्धन: बॉट द्वारा उत्पन्न उत्पीड़नकारी सामग्री अक्सर स्वचालित रूप से सार्वजनिक प्रोफाइल पर होस्ट की जाती है, जिससे किसी भी तरह की रोक लगने से पहले ही यह तेजी से वायरल हो जाती है।
- जनता के विश्वास का क्षरण: ‘प्रामाणिक दिखने वाली’ गलत सूचना देने की आसानी सभी डिजिटल मीडिया की विश्वसनीयता को कम करती है, जिससे पीड़ितों के लिए उत्पीड़न साबित करना कठिन हो जाता है।
- उदाहरण: MeitY ने हाल ही में बताया कि Grok का दुरुपयोग फर्जी खाते बनाने के लिए किया जा रहा है, जो अश्लील छवियों को होस्ट करते हैं और व्यक्तियों को भद्दे तरीके से बदनाम करते हैं।
लैंगिक आधारित हिंसा के संदर्भ में चुनौतियाँ
- बिना सहमति के डीपफेक पोर्नोग्राफी: खबरों के मुताबिक, कृत्रिम बुद्धिमत्ता (AI) उपकरणों का इस्तेमाल करके महिलाओं की तस्वीरों को उनकी सहमति के बिना अनुचित तरीके से बदला गया है, जिससे निजता और डिजिटल उत्पीड़न को लेकर गंभीर चिंताएँ उत्पन्न हो गई हैं।
- लैंगिक अल्पसंख्यकों को निशाना बनाना: यह प्लेटफॉर्म यौन उत्पीड़न के समन्वित अभियानों को बढ़ावा देकर लैंगिक अल्पसंख्यकों के प्रति समग्र शत्रुता को और बढ़ा रहा है।
- महिलाओं के मुद्दों को दबाना: ‘मॉर्फ्ड’ होने या ऑनलाइन उत्पीड़न के डर से महिलाएँ, पत्रकार और कार्यकर्ता अपमान से बचने के लिए सार्वजनिक डिजिटल मंचों से दूर रहने को मजबूर हैं।
जवाबदेही और सुरक्षा के लिए आगे की राह
- बाध्यकारी AI कानून: सरकारों को ‘स्वैच्छिक सलाह’ से हटकर सख्त, बाध्यकारी कानूनों की ओर बढ़ना चाहिए, जो AI डेवलपर्स को उनके मॉडलों के आउटपुट के लिए उत्तरदायी ठहराते हैं।
- उदाहरण: ब्रिटेन के ऑनलाइन सुरक्षा अधिनियम से लेकर मैक्सिको के ले ओलंपिया तक, कई देशों के डिजिटल सुरक्षा अधिनियम में बदलाव किए जा रहे हैं।
- अनिवार्य सुरक्षा ऑडिट: कंपनियों को इमेज जनरेशन फीचर्स लॉन्च करने से पहले ‘व्यापक तकनीकी और शासन की समीक्षा’ करने की आवश्यकता होनी चाहिए।
- उदाहरण: अश्लील तस्वीरें बनाने के लिए Grok के दुरुपयोग के बाद भारत सरकार ने X को 72 घंटों के भीतर कार्रवाई रिपोर्ट (ATR) प्रस्तुत करने का आदेश दिया।
- ‘डिजाइन द्वारा सुरक्षा’ फ्रेमवर्क: AI मॉडलों में ‘छवियों को विकृत करने, ‘नग्नता’ या बिना सहमति के वास्तविक मानव चेहरों के बदलाव से संबंधित संकेतों के खिलाफ हार्ड-कोडेड ब्लॉक होने चाहिए।
- उदाहरण: भारत के AI शासन दिशा-निर्देश ‘सुरक्षा और विश्वसनीय AI’ स्तंभ की वकालत करते हैं, जो नवाचार की गति के बजाय मानवाधिकारों को प्राथमिकता देता है।
- त्वरित कार्रवाई तंत्र: प्लेटफॉर्म को बिना सहमति के अंतरंग छवियों (NCII) को हटाने और आपत्तिजनक खातों को बंद करने के लिए 24 घंटे की समयसीमा लागू करनी होगी।
- उदाहरण: IT नियम 2021 के तहत, प्लेटफॉर्म न्यायालय या सरकारी आदेश प्राप्त होने के 36 घंटों के भीतर अश्लील सामग्री को हटाने के लिए बाध्य हैं।
- वैश्विक सहयोग और मानक: हानिकारक AI मीडिया के स्रोत का पता लगाने के लिए जाँचकर्ताओं को सक्षम बनाने हेतु ‘सामग्री प्रमाणिकता’ (वॉटरमार्किंग) के लिए अंतरराष्ट्रीय मानक स्थापित करना।
- उदाहरण: ‘यू.एन वुमेन’ ने वैश्विक स्तर पर क्षेत्र-व्यापी विनियमन की माँग की है, जिसके तहत सार्वजनिक रूप से जारी किए जाने से पहले AI उपकरणों के लिए नैतिक मानक का पालन करना अनिवार्य हो।
निष्कर्ष
Grok विवाद इस बात की स्पष्ट चेतावनी देता है कि अनियंत्रित AI डिजिटल सुरक्षा के लिए एक गंभीर खतरा है। AI युग में सच्ची प्रगति के लिए “लोगों को प्राथमिकता” देने वाला दृष्टिकोण आवश्यक है, जहाँ कानून द्वारा महिलाओं की पहचान की रक्षा की जाए और उत्पीड़न से पैसा कमाने वालों को आपराधिक कृत्य के तहत दंडित किया जाए।
To get PDF version, Please click on "Print PDF" button.
Latest Comments