होम / एडिटोरियल
आपराधिक कानून
कृत्रिम बुद्धिमत्ता के समक्ष कानूनी चुनौतियाँ
«19-Dec-2024
स्रोत: द हिंदू
परिचय
भारत में AI-संचालित निगरानी तकनीकों की तेज़ी से तैनाती महत्त्वपूर्ण कानूनी और संवैधानिक खतरे को जन्म देती है। जैसे-जैसे सरकारी एजेंसियाँ चेहरे की पहचान और डेटा संग्रह प्रणाली को तेज़ी से अपना रही हैं, निजता के मौलिक अधिकार अभूतपूर्व खतरे में हैं। मौजूदा कानूनी ढाँचा पर्याप्त सुरक्षा उपाय प्रदान करने में विफल है, जिससे नागरिक अंधाधुंध डेटा संग्रह और संवेदनशील व्यक्तिगत जानकारी के संभावित दुरुपयोग के प्रति संवेदनशील हो जाते हैं।
AI निगरानी में कानूनी भेद्यता क्या हैं, और वे सुरक्षा और गोपनीयता संबंधी चिंताओं को कैसे संबोधित करती हैं?
- मूलभूत कानूनी कमी:
- मौजूदा विधायी ढाँचे में व्यापक कानूनी प्रावधानों का घोर अभाव है, जो AI-संचालित निगरानी प्रौद्योगिकियों से उत्पन्न होने वाले संभावित संवैधानिक उल्लंघनों को पर्याप्त रूप से सीमित कर सकें।
- डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम 2023 व्यापक सरकारी छूट प्रदान करता है जो मूल रूप से व्यक्तिगत गोपनीयता सुरक्षा को कमज़ोर करता है।
- संवैधानिक विसंगति:
- AI निगरानी तंत्र की तैनाती सीधे तौर पर के.एस. पुट्टस्वामी बनाम भारत संघ (2017) में स्थापित सिद्धांतों का उल्लंघन करती है, जिसमें गोपनीयता को मौलिक अधिकार के रूप में स्पष्ट रूप से मान्यता दी गई है।
- वर्तमान विनियामक दृष्टिकोण आनुपातिकता सिद्धांत को लागू करने में विफल रहता है, जिसके कारण एक कानूनी वैक्यूम उत्पन्न होता है जो संभावित रूप से अप्रतिबंधित डेटा संग्रहण और प्रसंस्करण की अनुमति देती है।
- प्रक्रियात्मक अपर्याप्तता:
- अनिवार्य न्यायिक निगरानी, पारदर्शी सहमति तंत्र और उच्च जोखिम वाली AI गतिविधियों पर विशिष्ट प्रतिबंधों का अभाव, प्रणालीगत कानूनी भेद्यता उत्पन्न करता है।
- यह प्रक्रियात्मक कमी, बिना किसी सार्थक कानूनी उपाय के सूचनात्मक गोपनीयता के संभावित व्यवस्थित उल्लंघन को संभव बनाती है।
- नियामक मनमानी:
- यूरोपीय संघ के कृत्रिम बुद्धिमत्ता अधिनियम जैसे अंतर्राष्ट्रीय मानकों के विपरीत, जोखिम आधारित नियामक ढाँचे का अभाव नागरिकों को स्थापित कानूनी सुरक्षा उपायों या जवाबदेही उपायों के बिना अनियंत्रित निगरानी तंत्र के संपर्क में लाता है।
विभिन्न वैश्विक क्षेत्र AI निगरानी विनियमन के प्रति किस प्रकार दृष्टिकोण रखते हैं, तथा उनकी कानूनी रणनीतियाँ और चुनौतियाँ क्या हैं?
- यूरोपीय संघ (सबसे अधिक प्रतिबंधात्मक):
- यूरोपीय संघ AI अधिनियम: कृत्रिम बुद्धिमत्ता पर पहला विनियमन।
- "अस्वीकार्य जोखिम" के रूप में समझी जाने वाली AI प्रौद्योगिकियों को स्पष्ट रूप से प्रतिबंधित करता है।
- सार्वजनिक स्थानों पर वास्तविक समय की बायोमेट्रिक पहचान पर कानूनी रूप से प्रतिबंध लगाता है।
- AI अनुप्रयोगों के लिये कठोर जोखिम-वर्गीकरण ढाँचा लागू करता है।
- गैर-अनुपालन के लिये पर्याप्त वित्तीय दंड लगाता है (35 मिलियन यूरो तक)।
- संयुक्त राज्य अमेरिका (उभरता हुआ नियामक):
- कोई व्यापक राष्ट्रीय AI प्रतिबंध नहीं।
- गतिविधि-विशिष्ट AI शासन को लागू करता है।
- राष्ट्रपति बिडेन के कार्यकारी आदेश में AI सिस्टम परीक्षण को अनिवार्य किया गया है।
- विशिष्ट AI अनुप्रयोगों को लक्षित करने वाले राज्य-स्तरीय विनियमन।
- भेदभावपूर्ण AI प्रथाओं को रोकने पर ध्यान केंद्रित।
- चीन (राज्य-नियंत्रित दृष्टिकोण):
- वैज्ञानिक और तकनीकी नैतिकता समीक्षा के लिये उपायों का एक सेट 1 दिसंबर, 2023 को लागू हुआ।
- अनुशंसा एल्गोरिदम के लिये दिशा-निर्देश 1 मार्च, 2024 को शुरू हुए और अभी भी विकसित हो रहे हैं।
- सार्वजनिक-सामना करने वाली AI सेवाओं को व्यापक रूप से विनियमित करता है।
- AI विकास पर सख्त सरकारी निगरानी लागू करता है।
- एल्गोरिदमिक और जनरेटिव AI सेवाओं को नियंत्रित करता है।
- राष्ट्रीय रणनीति नियंत्रित तकनीकी नवाचार पर ज़ोर देता है।
- भारत (न्यूनतम कानूनी ढाँचा):
- वर्ष 2023 में पारित डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम (DPDPA) का उद्देश्य भारत में सहमति के प्रबंधन और डेटा गोपनीयता के लिये जवाबदेही सुनिश्चित करने के लिये एक ढाँचा प्रदान करना था।
- वर्तमान में एक व्यापक AI विनियामक तंत्र का अभाव है।
- AI प्रौद्योगिकियों पर कोई स्पष्ट कानूनी प्रतिबंध नहीं है।
- मज़बूत कानूनी सुरक्षा उपायों के बिना AI निगरानी की तैनाती।
- वचन किया गया डिजिटल इंडिया अधिनियम अभी भी लागू नहीं हुआ है।
- यूनाइटेड किंगडम (अनुकूली विनियमन):
- "नवाचार समर्थक" विनियामक दृष्टिकोण अपनाता है।
- क्षेत्र-विशिष्ट विनियामकों में AI शासन को विकेंद्रीकृत करता है।
- संतुलित तकनीकी विकास पर ज़ोर देता है।
- अंतर्राष्ट्रीय AI सुरक्षा चर्चाओं की मेज़बानी करता है।
- दक्षिण अफ्रीका
- दक्षिण अफ्रीका में AI वर्तमान में व्यक्तिगत सूचना संरक्षण अधिनियम (POPIA) जैसे कानूनों द्वारा शासित है।
- देश ने दक्षिण अफ्रीकी आर्टिफिशियल इंटेलिजेंस रिसर्च सेंटर (CAIR) की शुरुआत की है।
- ऑस्ट्रेलिया
- विशिष्ट कानूनी विधानों के बिना भी, देश ने स्वैच्छिक AI नैतिकता सिद्धांतों और दिशानिर्देशों को प्रस्तुत किया है।
न्यायपालिका प्रणाली में AI के उपयोग में क्या चुनौतियाँ हैं?
- नैतिक और पूर्वाग्रह संबंधी चिंताएँ
- AI सिस्टम अनजाने में ऐतिहासिक कानूनी डेटा में मौजूद मौजूदा पूर्वाग्रहों को बनाए रख सकते हैं।
- मशीन लर्निंग मॉडल पिछले न्यायिक निर्णयों में पाए गए प्रणालीगत पूर्वाग्रहों को दर्शा सकते हैं।
- नस्ल, लिंग, सामाजिक-आर्थिक पृष्ठभूमि या अन्य संरक्षित विशेषताओं के आधार पर भेदभावपूर्ण परिणामों का जोखिम।
- पारदर्शिता और व्याख्यात्मकता का अभाव
- कई AI एल्गोरिदम "ब्लैक बॉक्स" के रूप में काम करते हैं, जिससे यह समझना मुश्किल हो जाता है कि निर्णय कैसे लिये जाते हैं।
- कानूनी प्रणालियों के लिये स्पष्ट तर्क और पारदर्शी निर्णय लेने की प्रक्रिया की आवश्यकता होती है।
- न्यायाधीशों, वकीलों और प्रतिवादियों को जटिल AI-संचालित कानूनी तर्क समझाने में कठिनाई।
- कानूनी और जवाबदेही चुनौतियाँ
- AI-सहायता प्राप्त या AI-संचालित न्यायिक निर्णयों के लिये अस्पष्ट कानूनी ढाँचा।
- जब AI सिस्टम त्रुटियाँ करते हैं तो उत्तरदायित्व के बारे में प्रश्न।
- गलत या पक्षपातपूर्ण कानूनी सिफारिशों के लिये ज़िम्मेदारी का निर्धारण।
- डेटा की गुणवत्ता और विश्वसनीयता
- कानूनी AI सिस्टम उच्च गुणवत्ता वाले, व्यापक और निष्पक्ष ऐतिहासिक कानूनी डेटा पर निर्भर करते हैं।
- अपूर्ण या ऐतिहासिक रूप से विषम कानूनी डेटाबेस अविश्वसनीय भविष्यवाणियों को उत्पन्न दे सकते हैं।
- बड़े पैमाने पर कानूनी डेटाबेस को बनाए रखने और अपडेट करने में चुनौतियाँ।
- कानूनी तर्क की जटिलता
- कानून में सूक्ष्म व्याख्या, संदर्भगत समझ और नैतिक विचार शामिल होते हैं।
- AI को निम्नलिखित समस्याओं का सामना करना पड़ सकता है:
- अस्पष्ट कानूनी भाषा की व्याख्या करना।
- सूक्ष्म संदर्भगत विवरणों को समझना।
- नैतिक निर्णय लागू करना।
- अभूतपूर्व या अद्वितीय कानूनी परिदृश्यों को संभालना।
- गोपनीयता और डेटा संरक्षण
- कानूनी कार्यवाही में अक्सर संवेदनशील व्यक्तिगत जानकारी शामिल होती है।
- डेटा उल्लंघन और गोपनीय कानूनी डेटा तक अनधिकृत पहुँच के जोखिम।
- सख्त डेटा सुरक्षा विनियमों का अनुपालन।
- मानवाधिकार और उचित प्रक्रिया
- मानवीय निर्णय को एल्गोरिदमिक निर्णय-निर्माण से बदलने की चिंताएँ।
- निष्पक्ष सुनवाई के मौलिक अधिकारों का संभावित उल्लंघन।
- जटिल मानवीय अनुभवों को सांख्यिकीय गणनाओं तक सीमित करने का जोखिम।
- तकनीकी सीमाएँ
- वर्तमान AI प्रौद्योगिकियाँ मानवीय अंतर्ज्ञान और सहानुभूति को पूरी तरह से दोहरा नहीं सकती हैं।
- जटिल कानूनी तर्कों और भावनात्मक बारीकियों को संभालने में कठिनाइयाँ।
- गैर-मौखिक संचार और सामाजिक संदर्भ को समझने की सीमित क्षमता।
- लागत और कार्यान्वयन चुनौतियाँ
- परिष्कृत कानूनी AI सिस्टम विकसित करने के लिये महत्त्वपूर्ण वित्तीय निवेश की आवश्यकता है।
- AI प्रौद्योगिकियों के साथ प्रभावी ढंग से काम करने के लिये कानूनी पेशेवरों को प्रशिक्षित करना।
- AI सिस्टम का निरंतर रखरखाव और अद्यतन करना।
- कानूनी पेशेवरों का प्रतिरोध
- संभावित नौकरी विस्थापन भय।
- AI की क्षमताओं के बारे में पेशेवर संदेह।
- तकनीकी परिवर्तन के लिये सांस्कृतिक और संस्थागत प्रतिरोध।
- साइबर सुरक्षा भेद्यता
- AI सिस्टम हैकिंग या हेरफेर के लिये संभावित लक्ष्य हो सकते हैं।
- तकनीकी भेद्यता के माध्यम से न्यायिक अखंडता से समझौता करने का जोखिम।
- AI -संचालित कानूनी प्रणालियों की सुरक्षा के लिये मज़बूत सुरक्षा उपायों की आवश्यकता है।
वैश्विक निकाय और AI गवर्नेंस पहल क्या हैं?
- सहयोगात्मक अंतर्राष्ट्रीय प्रयास: संयुक्त राष्ट्र, OECD और G20 AI शासन के लिये सामान्य सिद्धांतों को स्थापित करने के लिये सक्रिय रूप से काम कर रहे हैं, जो निम्नलिखित महत्त्वपूर्ण क्षेत्रों पर ध्यान केंद्रित कर रहे हैं:
- नैतिकता।
- पारदर्शिता।
- जवाबदेही।
- निष्पक्षता।
- व्यावसायिक संगठन का योगदान: विश्व आर्थिक मंच और IEEE, AI शासन में महत्त्वपूर्ण भूमिका निभा रहे हैं, तथा IEEE ग्लोबल इनिशिएटिव ऑन एथिक्स ऑफ ऑटोनोमस एंड इंटेलिजेंट सिस्टम्स ऐसे मानक विकसित कर रहा है, जिनका वैज्ञानिक और तकनीकी समुदायों में पर्याप्त महत्त्व है।
- बहुपक्षीय कूटनीतिक मील का पत्थर: जापानी प्रधानमंत्री किशिदा फूमियो द्वारा शुरू किया गया हिरोशिमा AI प्रोसेस फ्रेंड्स ग्रुप, वैश्विक AI शासन में एक ऐतिहासिक उपलब्धि का प्रतिनिधित्व करता है:
- 49 देशों (मुख्य रूप से OECD सदस्य) द्वारा समर्थित।
- G7 लोकतांत्रिक नेताओं के बीच पहला समझौता।
- व्यक्तिगत अधिकारों की सुरक्षा पर ध्यान केंद्रित करते हुए AI को बढ़ाने पर ज़ोर दिया गया।
- विकासशील नियामक परिदृश्य: दस्तावेज़ में इस बात पर प्रकाश डाला गया है कि AI विनियमन प्रयास इस प्रकार हैं:
- वैश्विक और घरेलू दोनों स्तरों पर जारी है।
- अंतरसंबंधित निर्णय लेने की विशेषता।
- चल रही बहसों और उभरते सिद्धांतों से प्रभावित।
- भविष्य के विनियामक रुझान: दुनिया भर के देश सक्रिय रूप से AI विनियमनों पर चर्चा और तैयारी कर रहे हैं, और कई देशों द्वारा निकट भविष्य में विशिष्ट कानून विकसित किये जाने की उम्मीद है। उदाहरणों में शामिल हैं:
- मिस्र ने राष्ट्रीय AI रणनीति का अनावरण किया।
- तुर्की ने डेटा सुरक्षा दिशा-निर्देश प्रदान किये।
- दक्षिण कोरिया ने AI अधिनियम लागू किया।
- जापान ने AI विनियमन सिद्धांत स्थापित किये।
निष्कर्ष
AI निगरानी का अनियंत्रित विस्तार भारत में व्यक्तिगत नागरिक स्वतंत्रता के महत्त्वपूर्ण क्षरण का प्रतिनिधित्व करता है। मज़बूत विधायी निरीक्षण, व्यापक डेटा सुरक्षा विनियमन और उच्च जोखिम वाली AI गतिविधियों पर स्पष्ट प्रतिबंधों के बिना, सरकार तकनीकी प्रगति को व्यवस्थित गोपनीयता आक्रमण के उपकरण में बदलने का जोखिम उठाती है। तत्काल आवश्यकता एक संतुलित नियामक दृष्टिकोण की है जो ज़िम्मेदार तकनीकी नवाचार की अनुमति देते हुए नागरिकों के संवैधानिक अधिकारों को प्राथमिकता देता है।