Drishti IAS द्वारा संचालित Drishti Judiciary में आपका स्वागत है










होम / एडिटोरियल

आपराधिक कानून

कृत्रिम बुद्धिमत्ता के समक्ष कानूनी चुनौतियाँ

    «
 19-Dec-2024

स्रोत: द हिंदू

परिचय

भारत में AI-संचालित निगरानी तकनीकों की तेज़ी से तैनाती महत्त्वपूर्ण कानूनी और संवैधानिक खतरे को जन्म देती है। जैसे-जैसे सरकारी एजेंसियाँ ​​चेहरे की पहचान और डेटा संग्रह प्रणाली को तेज़ी से अपना रही हैं, निजता के मौलिक अधिकार अभूतपूर्व खतरे में हैं। मौजूदा कानूनी ढाँचा पर्याप्त सुरक्षा उपाय प्रदान करने में विफल है, जिससे नागरिक अंधाधुंध डेटा संग्रह और संवेदनशील व्यक्तिगत जानकारी के संभावित दुरुपयोग के प्रति संवेदनशील हो जाते हैं।

AI निगरानी में कानूनी भेद्यता क्या हैं, और वे सुरक्षा और गोपनीयता संबंधी चिंताओं को कैसे संबोधित करती हैं?

  • मूलभूत कानूनी कमी:
    • मौजूदा विधायी ढाँचे में व्यापक कानूनी प्रावधानों का घोर अभाव है, जो AI-संचालित निगरानी प्रौद्योगिकियों से उत्पन्न होने वाले संभावित संवैधानिक उल्लंघनों को पर्याप्त रूप से सीमित कर सकें।
    • डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम 2023 व्यापक सरकारी छूट प्रदान करता है जो मूल रूप से व्यक्तिगत गोपनीयता सुरक्षा को कमज़ोर करता है।
  • संवैधानिक विसंगति:
    • AI निगरानी तंत्र की तैनाती सीधे तौर पर के.एस. पुट्टस्वामी बनाम भारत संघ (2017) में स्थापित सिद्धांतों का उल्लंघन करती है, जिसमें गोपनीयता को मौलिक अधिकार के रूप में स्पष्ट रूप से मान्यता दी गई है।
    • वर्तमान विनियामक दृष्टिकोण आनुपातिकता सिद्धांत को लागू करने में विफल रहता है, जिसके कारण एक कानूनी वैक्यूम उत्पन्न होता है जो संभावित रूप से अप्रतिबंधित डेटा संग्रहण और प्रसंस्करण की अनुमति देती है।
  • प्रक्रियात्मक अपर्याप्तता:
    • अनिवार्य न्यायिक निगरानी, ​​पारदर्शी सहमति तंत्र और उच्च जोखिम वाली AI गतिविधियों पर विशिष्ट प्रतिबंधों का अभाव, प्रणालीगत कानूनी भेद्यता उत्पन्न करता है।
    • यह प्रक्रियात्मक कमी, बिना किसी सार्थक कानूनी उपाय के सूचनात्मक गोपनीयता के संभावित व्यवस्थित उल्लंघन को संभव बनाती है।
  • नियामक मनमानी:
    • यूरोपीय संघ के कृत्रिम बुद्धिमत्ता अधिनियम जैसे अंतर्राष्ट्रीय मानकों के विपरीत, जोखिम आधारित नियामक ढाँचे का अभाव नागरिकों को स्थापित कानूनी सुरक्षा उपायों या जवाबदेही उपायों के बिना अनियंत्रित निगरानी तंत्र के संपर्क में लाता है।

विभिन्न वैश्विक क्षेत्र AI निगरानी विनियमन के प्रति किस प्रकार दृष्टिकोण रखते हैं, तथा उनकी कानूनी रणनीतियाँ और चुनौतियाँ क्या हैं?

  • यूरोपीय संघ (सबसे अधिक प्रतिबंधात्मक):
    • यूरोपीय संघ AI अधिनियम: कृत्रिम बुद्धिमत्ता पर पहला विनियमन।
    • "अस्वीकार्य जोखिम" के रूप में समझी जाने वाली AI प्रौद्योगिकियों को स्पष्ट रूप से प्रतिबंधित करता है।
    • सार्वजनिक स्थानों पर वास्तविक समय की बायोमेट्रिक पहचान पर कानूनी रूप से प्रतिबंध लगाता है।
    • AI अनुप्रयोगों के लिये कठोर जोखिम-वर्गीकरण ढाँचा लागू करता है।
    • गैर-अनुपालन के लिये पर्याप्त वित्तीय दंड लगाता है (35 मिलियन यूरो तक)।
  • संयुक्त राज्य अमेरिका (उभरता हुआ नियामक):
    • कोई व्यापक राष्ट्रीय AI प्रतिबंध नहीं।
    • गतिविधि-विशिष्ट AI शासन को लागू करता है।
    • राष्ट्रपति बिडेन के कार्यकारी आदेश में AI सिस्टम परीक्षण को अनिवार्य किया गया है।
    • विशिष्ट AI अनुप्रयोगों को लक्षित करने वाले राज्य-स्तरीय विनियमन।
    • भेदभावपूर्ण AI प्रथाओं को रोकने पर ध्यान केंद्रित।
  • चीन (राज्य-नियंत्रित दृष्टिकोण):
    • वैज्ञानिक और तकनीकी नैतिकता समीक्षा के लिये उपायों का एक सेट 1 दिसंबर, 2023 को लागू हुआ।
    • अनुशंसा एल्गोरिदम के लिये दिशा-निर्देश 1 मार्च, 2024 को शुरू हुए और अभी भी विकसित हो रहे हैं।
    • सार्वजनिक-सामना करने वाली AI सेवाओं को व्यापक रूप से विनियमित करता है।
    • AI विकास पर सख्त सरकारी निगरानी लागू करता है।
    • एल्गोरिदमिक और जनरेटिव AI सेवाओं को नियंत्रित करता है।
    • राष्ट्रीय रणनीति नियंत्रित तकनीकी नवाचार पर ज़ोर देता है।
  • भारत (न्यूनतम कानूनी ढाँचा):
    • वर्ष 2023 में पारित डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम (DPDPA) का उद्देश्य भारत में सहमति के प्रबंधन और डेटा गोपनीयता के लिये जवाबदेही सुनिश्चित करने के लिये एक ढाँचा प्रदान करना था।
    • वर्तमान में एक व्यापक AI विनियामक तंत्र का अभाव है।
    • AI प्रौद्योगिकियों पर कोई स्पष्ट कानूनी प्रतिबंध नहीं है।
    • मज़बूत कानूनी सुरक्षा उपायों के बिना AI निगरानी की तैनाती।
    • वचन किया गया डिजिटल इंडिया अधिनियम अभी भी लागू नहीं हुआ है।
  • यूनाइटेड किंगडम (अनुकूली विनियमन):
    • "नवाचार समर्थक" विनियामक दृष्टिकोण अपनाता है।
    • क्षेत्र-विशिष्ट विनियामकों में AI शासन को विकेंद्रीकृत करता है।
    • संतुलित तकनीकी विकास पर ज़ोर देता है।
    • अंतर्राष्ट्रीय AI सुरक्षा चर्चाओं की मेज़बानी करता है।
  • दक्षिण अफ्रीका
    • दक्षिण अफ्रीका में AI वर्तमान में व्यक्तिगत सूचना संरक्षण अधिनियम (POPIA) जैसे कानूनों द्वारा शासित है।
    • देश ने दक्षिण अफ्रीकी आर्टिफिशियल इंटेलिजेंस रिसर्च सेंटर (CAIR) की शुरुआत की है।
  • ऑस्ट्रेलिया
    • विशिष्ट कानूनी विधानों के बिना भी, देश ने स्वैच्छिक AI नैतिकता सिद्धांतों और दिशानिर्देशों को प्रस्तुत किया है।

न्यायपालिका प्रणाली में AI के उपयोग में क्या चुनौतियाँ हैं?

  • नैतिक और पूर्वाग्रह संबंधी चिंताएँ
    • AI सिस्टम अनजाने में ऐतिहासिक कानूनी डेटा में मौजूद मौजूदा पूर्वाग्रहों को बनाए रख सकते हैं।
    • मशीन लर्निंग मॉडल पिछले न्यायिक निर्णयों में पाए गए प्रणालीगत पूर्वाग्रहों को दर्शा सकते हैं।
    • नस्ल, लिंग, सामाजिक-आर्थिक पृष्ठभूमि या अन्य संरक्षित विशेषताओं के आधार पर भेदभावपूर्ण परिणामों का जोखिम।
  • पारदर्शिता और व्याख्यात्मकता का अभाव
    • कई AI एल्गोरिदम "ब्लैक बॉक्स" के रूप में काम करते हैं, जिससे यह समझना मुश्किल हो जाता है कि निर्णय कैसे लिये जाते हैं।
    • कानूनी प्रणालियों के लिये स्पष्ट तर्क और पारदर्शी निर्णय लेने की प्रक्रिया की आवश्यकता होती है।
    • न्यायाधीशों, वकीलों और प्रतिवादियों को जटिल AI-संचालित कानूनी तर्क समझाने में कठिनाई।
  • कानूनी और जवाबदेही चुनौतियाँ
    • AI-सहायता प्राप्त या AI-संचालित न्यायिक निर्णयों के लिये अस्पष्ट कानूनी ढाँचा।
    • जब AI सिस्टम त्रुटियाँ करते हैं तो उत्तरदायित्व के बारे में प्रश्न।
    • गलत या पक्षपातपूर्ण कानूनी सिफारिशों के लिये ज़िम्मेदारी का निर्धारण।
  • डेटा की गुणवत्ता और विश्वसनीयता
    • कानूनी AI सिस्टम उच्च गुणवत्ता वाले, व्यापक और निष्पक्ष ऐतिहासिक कानूनी डेटा पर निर्भर करते हैं।
    • अपूर्ण या ऐतिहासिक रूप से विषम कानूनी डेटाबेस अविश्वसनीय भविष्यवाणियों को उत्पन्न दे सकते हैं।
    • बड़े पैमाने पर कानूनी डेटाबेस को बनाए रखने और अपडेट करने में चुनौतियाँ।
  • कानूनी तर्क की जटिलता
    • कानून में सूक्ष्म व्याख्या, संदर्भगत समझ और नैतिक विचार शामिल होते हैं।
  • AI को निम्नलिखित समस्याओं का सामना करना पड़ सकता है:
    • अस्पष्ट कानूनी भाषा की व्याख्या करना।
    • सूक्ष्म संदर्भगत विवरणों को समझना।
    • नैतिक निर्णय लागू करना।
    • अभूतपूर्व या अद्वितीय कानूनी परिदृश्यों को संभालना।
  • गोपनीयता और डेटा संरक्षण
    • कानूनी कार्यवाही में अक्सर संवेदनशील व्यक्तिगत जानकारी शामिल होती है।
    • डेटा उल्लंघन और गोपनीय कानूनी डेटा तक अनधिकृत पहुँच के जोखिम।
    • सख्त डेटा सुरक्षा विनियमों का अनुपालन।
  • मानवाधिकार और उचित प्रक्रिया
    • मानवीय निर्णय को एल्गोरिदमिक निर्णय-निर्माण से बदलने की चिंताएँ।
    • निष्पक्ष सुनवाई के मौलिक अधिकारों का संभावित उल्लंघन।
    • जटिल मानवीय अनुभवों को सांख्यिकीय गणनाओं तक सीमित करने का जोखिम।
  • तकनीकी सीमाएँ
    • वर्तमान AI प्रौद्योगिकियाँ मानवीय अंतर्ज्ञान और सहानुभूति को पूरी तरह से दोहरा नहीं सकती हैं।
    • जटिल कानूनी तर्कों और भावनात्मक बारीकियों को संभालने में कठिनाइयाँ।
    • गैर-मौखिक संचार और सामाजिक संदर्भ को समझने की सीमित क्षमता।
  • लागत और कार्यान्वयन चुनौतियाँ
    • परिष्कृत कानूनी AI सिस्टम विकसित करने के लिये महत्त्वपूर्ण वित्तीय निवेश की आवश्यकता है।
    • AI प्रौद्योगिकियों के साथ प्रभावी ढंग से काम करने के लिये कानूनी पेशेवरों को प्रशिक्षित करना।
    • AI सिस्टम का निरंतर रखरखाव और अद्यतन करना।
  • कानूनी पेशेवरों का प्रतिरोध
    • संभावित नौकरी विस्थापन भय।
    • AI की क्षमताओं के बारे में पेशेवर संदेह।
    • तकनीकी परिवर्तन के लिये सांस्कृतिक और संस्थागत प्रतिरोध।
  • साइबर सुरक्षा भेद्यता
    • AI सिस्टम हैकिंग या हेरफेर के लिये संभावित लक्ष्य हो सकते हैं।
    • तकनीकी भेद्यता के माध्यम से न्यायिक अखंडता से समझौता करने का जोखिम।
    • AI -संचालित कानूनी प्रणालियों की सुरक्षा के लिये मज़बूत सुरक्षा उपायों की आवश्यकता है।

वैश्विक निकाय और AI गवर्नेंस पहल क्या हैं?

  • सहयोगात्मक अंतर्राष्ट्रीय प्रयास: संयुक्त राष्ट्र, OECD और G20 AI शासन के लिये सामान्य सिद्धांतों को स्थापित करने के लिये सक्रिय रूप से काम कर रहे हैं, जो निम्नलिखित महत्त्वपूर्ण क्षेत्रों पर ध्यान केंद्रित कर रहे हैं:
    • नैतिकता।
    • पारदर्शिता।
    • जवाबदेही।
    • निष्पक्षता।
  • व्यावसायिक संगठन का योगदान: विश्व आर्थिक मंच और IEEE, AI शासन में महत्त्वपूर्ण भूमिका निभा रहे हैं, तथा IEEE ग्लोबल इनिशिएटिव ऑन एथिक्स ऑफ ऑटोनोमस एंड इंटेलिजेंट सिस्टम्स ऐसे मानक विकसित कर रहा है, जिनका वैज्ञानिक और तकनीकी समुदायों में पर्याप्त महत्त्व है।
  • बहुपक्षीय कूटनीतिक मील का पत्थर: जापानी प्रधानमंत्री किशिदा फूमियो द्वारा शुरू किया गया हिरोशिमा AI प्रोसेस फ्रेंड्स ग्रुप, वैश्विक AI शासन में एक ऐतिहासिक उपलब्धि का प्रतिनिधित्व करता है:
    • 49 देशों (मुख्य रूप से OECD सदस्य) द्वारा समर्थित।
    • G7 लोकतांत्रिक नेताओं के बीच पहला समझौता।
    • व्यक्तिगत अधिकारों की सुरक्षा पर ध्यान केंद्रित करते हुए AI को बढ़ाने पर ज़ोर दिया गया।
  • विकासशील नियामक परिदृश्य: दस्तावेज़ में इस बात पर प्रकाश डाला गया है कि AI विनियमन प्रयास इस प्रकार हैं:
    • वैश्विक और घरेलू दोनों स्तरों पर जारी है।
    • अंतरसंबंधित निर्णय लेने की विशेषता।
    • चल रही बहसों और उभरते सिद्धांतों से प्रभावित।
  • भविष्य के विनियामक रुझान: दुनिया भर के देश सक्रिय रूप से AI विनियमनों पर चर्चा और तैयारी कर रहे हैं, और कई देशों द्वारा निकट भविष्य में विशिष्ट कानून विकसित किये जाने की उम्मीद है। उदाहरणों में शामिल हैं:
    • मिस्र ने राष्ट्रीय AI रणनीति का अनावरण किया।
    • तुर्की ने डेटा सुरक्षा दिशा-निर्देश प्रदान किये।
    • दक्षिण कोरिया ने AI अधिनियम लागू किया।
    • जापान ने AI विनियमन सिद्धांत स्थापित किये।

निष्कर्ष

AI निगरानी का अनियंत्रित विस्तार भारत में व्यक्तिगत नागरिक स्वतंत्रता के महत्त्वपूर्ण क्षरण का प्रतिनिधित्व करता है। मज़बूत विधायी निरीक्षण, व्यापक डेटा सुरक्षा विनियमन और उच्च जोखिम वाली AI गतिविधियों पर स्पष्ट प्रतिबंधों के बिना, सरकार तकनीकी प्रगति को व्यवस्थित गोपनीयता आक्रमण के उपकरण में बदलने का जोखिम उठाती है। तत्काल आवश्यकता एक संतुलित नियामक दृष्टिकोण की है जो ज़िम्मेदार तकनीकी नवाचार की अनुमति देते हुए नागरिकों के संवैधानिक अधिकारों को प्राथमिकता देता है।