प्रश्न की मुख्य माँग
- भारत में व्यक्तित्व अधिकारों के लिए गंभीर खतरा।
- पहचान और गरिमा की रक्षा के लिए समर्पित कानून की आवश्यकता।
|
उत्तर
जनरेटिव AI और डीपफेक तकनीक फेस, आवाज और व्यक्तित्व की प्रतिकृति बिना सहमति के तैयार कर रहे हैं। यह प्रामाणिकता को धुँधला कर प्रतिष्ठा, गोपनीयता और गरिमा को कमजोर करता है, जिससे न्यायपालिका में चिंता बढ़ी है कि क्या वर्तमान कानूनी सुरक्षा डिजिटल युग में व्यक्तित्व अधिकारों की रक्षा कर सकती है।
भारत में व्यक्तित्व अधिकारों के लिए महत्त्वपूर्ण खतरे
कृत्रिम बुद्धिमत्ता आधारित पहचान हेर-फेर
- जनरेटिव AI द्वारा कृत्रिम चेहरे/आवाजें तैयार की जाती हैं, जिससे वास्तविकता संदिग्ध होती है और प्रतिष्ठा को क्षति पहुँचती है।
- उदाहरण: अभिषेक बच्चन और ऐश्वर्या राय बच्चन के अशोभनीय संदर्भों में डीपफेक वीडियो, जिसके कारण दिल्ली उच्च न्यायालय में वाद दायर हुआ।
- व्यक्तिगत पहचान का वाणिज्यिक शोषण: कृत्रिम बुद्धिमत्ता व्यक्ति के नाम, शैली और आवाज को बिना अनुमति लाभ के लिए उपयोग कर आर्थिक स्वायत्तता को कमजोर करती है।
- उदाहरण: अनिल कपूर बनाम सिंपली लाइफ इंडिया (वर्ष 2023) में उनके चेहरे और “झकास” को कृत्रिम रूप से पुनरुत्पादित करने पर प्रतिबंध लगाया गया।
- डिजिटल गोपनीयता और गरिमा का ह्रास: डीपफेक गोपनीयता के अतिक्रमण, मिथ्या सूचना और भावनात्मक क्षति को बढ़ाते हैं।
- उदाहरण: न्यायालयों ने न्यायमूर्ति के. एस. पुट्टस्वामी (वर्ष 2017) निजता निर्णय के बाद अनुच्छेद-21 के तहत व्यक्तित्व अधिकारों को मान्यता दी है।
- सीमा पार प्रवर्तन की चुनौतियाँ: कृत्रिम बुद्धिमत्ता मंच वैश्विक स्तर पर संचालित होते हैं; विदेशी सर्वर और गुमनामी भारतीय प्रवर्तन को कमजोर करते हैं।
- उदाहरण: सूचना प्रौद्योगिकी अधिनियम, 2000 के तहतप्लेटफॉर्म की जिम्मेदारी सीमित है, जैसा कि सीमा पार डेटा वितरण में उजागर हुआ।
- अविरासत योग्य और असुरक्षित पहचान अधिकार: वर्तमान न्यायशास्त्र मृत्यु के बाद व्यक्तित्व अधिकारों और मृत व्यक्तियों के कृत्रिम उपयोग पर स्पष्ट सुरक्षा प्रदान नहीं करता है।
- उदाहरण: मृत कलाकारों की कृत्रिम पुनर्रचना पर गंभीर नैतिक चिंताएँ रेखांकित की गई हैं।
पहचान और गरिमा की सुरक्षा हेतु समर्पित कानून की आवश्यकता
- व्यक्तित्व अधिकारों का विधिक संहिताकरण: भारत, मिश्रित (गोपनीयता + संपत्ति) मॉडल पर निर्भर है, जिससे प्रवर्तन में व्यापक अंतराल बने हुए हैं।
- उदाहरण: अमिताभ बच्चन बनाम रजत नागी (वर्ष 2022) में अधिकारों की मान्यता के बावजूद कोई विधिक अधिनियम अस्तित्व में नहीं है।
- कृत्रिम बुद्धिमत्ता आधारित डीपफेक की विधिक परिभाषा और दायित्व: दुरुपयोग रोकने और समय-सीमा को सुनिश्चित करने हेतु मंचों पर स्पष्ट कानूनी दायित्व आवश्यक हैं।
- उदाहरण: वर्ष 2025 के दखलकर्ता दिशा-निर्देश प्रतिरूपण को संबोधित करते हैं, परंतु उत्तरदायित्व सीमित और प्रतिक्रियात्मक है।
- अनिवार्य कृत्रिम बुद्धिमत्ता वॉटरमार्किंग और सहमति व्यवस्था: कृत्रिम सामग्री में पारदर्शिता से धोखाधड़ी की रोकथाम होगी और उपयोगकर्ता गरिमा की सुरक्षा होगी।
- उदाहरण: डीपफेक की भ्रामक प्रकृति रोकने हेतु वॉटरमार्किंग महत्त्वपूर्ण सुरक्षा उपाय है।
- उच्च-जोखिम वर्गीकरण और कठोर दंड: उत्पीड़न, धमकी या मिथ्या सूचना हेतु प्रयुक्त डीपफेक को उच्च-जोखिम डिजिटल अपराध के रूप में वर्गीकृत किया जाना चाहिए।
- उदाहरण: यूरोपीय संघ के कृत्रिम बुद्धिमत्ता अधिनियम ने डीपफेक को उच्च-जोखिम श्रेणी में रखा है; भारत को समान रोकथाम प्रणाली अपनानी चाहिए।
- वैश्विक सामंजस्य और डेटा-शासन ढाँचे: चूँकि कृत्रिम बुद्धिमत्ता सीमा पार तकनीक है, इसलिए गरिमा की वैश्विक सुरक्षा हेतु समन्वित मानक आवश्यक हैं।
- उदाहरण: यूनेस्को के कृत्रिम बुद्धिमत्ता नैतिक सिद्धांत अधिकार-आधारित सुरक्षा और वैश्विक सहयोग पर बल देते हैं।
निष्कर्ष
डीपफेक और AI-निर्मित सामग्री की स्पष्ट परिभाषा, अनिवार्य कृत्रिम वॉटरमार्किंग, सहमति-आधारित उपयोग, मंच-दायित्व और वैश्विक सहयोग को समाहित करने वाला एक समर्पित कानून शीघ्र लागू किया जाना चाहिए। संवैधानिक गरिमा के अनुरूप सक्रिय विनियमन आवश्यक है, ताकि तकनीकी नवाचार मानव-परक पहचान का वाणिज्यीकरण न करे और विकसित होते कृत्रिम बुद्धिमत्ता परिदृश्य में व्यक्तिगत स्वायत्तता सुरक्षित रह सके।
To get PDF version, Please click on "Print PDF" button.
Latest Comments