होम / एडिटोरियल
अंतर्राष्ट्रीय नियम
AI (आर्टिफिशियल इंटेलिजेंस)
« »16-Aug-2024
स्रोत: द हिंदू
परिचय:
वर्ष 2024 का आरंभ नए सुरक्षा खतरों, विशेष रूप से आर्टिफिशियल इंटेलिजेंस और इसके विभिन्न रूपों से उत्पन्न होने वाले खतरों के विषय में चिंताओं के साथ हुआ। विश्व भर के सुरक्षा विशेषज्ञों ने साइबर हमलों की लहर की आशंका जताई, जिसमें फ्राँस में होने वाले 33वें ग्रीष्मकालीन ओलंपिक खेलों को मुख्य लक्ष्य के रूप में देखा गया। ओलंपिक खेलों के दौरान ऐसी बड़ी घटनाओं का न होना राहत की बात थी, विशेषज्ञों ने चेतावनी दी कि सतर्कता बनाए रखी जानी चाहिये क्योंकि नए प्रकार के डिजिटल खतरे सामने आते रहते हैं। पेरिस ओलंपिक का शांतिपूर्ण समापन सुरक्षा प्रबंधकों के लिये एक विजय है, परंतु यह उभरती हुई सुरक्षा चुनौतियों के सामने निरंतर सतर्कता की आवश्यकता के अंत का संकेत नहीं है।
AI-सक्षम भ्रामक सूचनाओं का उदय:
- वर्ष 2024 में भ्रामक सूचनाओं में अभूतपूर्व वृद्धि देखी जाएगी, जिसे कृत्रिम बुद्धिमत्ता (AI) में प्रगति द्वारा सुगम बनाया जाएगा।
- जनवरी 2024 में ताइवान के चुनाव AI हमले का एक स्पष्ट उदाहरण थे, जिसमें राजनीतिक परिदृश्य भ्रामक सूचनाओं एवं वीडियो से भर गया था, जिससे मतदाताओं में व्यापक भ्रम उत्पन्न हो गया था।
- यद्यपि प्रारंभ में इस घटना के स्रोत के रूप में चीन पर संदेह किया गया था, परंतु इस घटना ने एक महत्त्वपूर्ण बिंदु प्रकट किया: आज के डिजिटल युग में, भ्रामक सूचना का वास्तविक स्रोत प्रायः अस्पष्ट रह जाता है।
डीपफेक का प्रसार:
- डिजिटल रूप से हेरफेर किये गए वीडियो, ऑडियो या छवियों से युक्त डीप फेक तेज़ी से प्रचलित और परिष्कृत हो गए हैं।
- AI द्वारा उत्पन्न ये कूट रचना बार-बार चर्चाओं में रही हैं, जिससे भ्रामक सूचनाओं का ऐसा प्रसार होता है, जिसे दूर करना प्रायः कठिन होता है।
- डीप फेक के कारण होने वाली क्षति प्रायः अपरिवर्तनीय होती है, क्योंकि प्रायः मिथ्या सूचनाओं के सार्वजनिक चेतना में स्थापित हो जाने के काफी समय बाद ही सच्चाई सामने आती है।
साइबर हमलों और AI का अंतर्संबंध:
- साइबर हमलों और AI-सक्षम भ्रामक सूचनाओं का संयोजन राष्ट्रीय सुरक्षा के लिये एक बड़ा खतरा बनकर उभरा है।
- यूक्रेन में चल रहा संघर्ष इस बात का एक उदाहरण है कि कैसे विरोधी पक्ष दूरसंचार और विद्युत ग्रिड सहित महत्त्वपूर्ण बुनियादी ढाँचे को बाधित करने के लिये इन रणनीतियों का उपयोग कर सकते हैं।
- इस हाइब्रिड युद्ध पद्धति ने अत्यधिक विनाश किया है और एक व्यापक रक्षा रणनीति की आवश्यकता को रेखांकित किया है जो साइबर तथा AI-सक्षम दोनों खतरों से निपट सके।
- क्राउडस्ट्राइक आउटेज:
- वर्ष 2024 में, माइक्रोसॉफ्ट विंडोज़ को प्रभावित करने वाली एक सॉफ्टवेयर अपडेट गड़बड़ी ने बड़े स्तर पर साइबर हमले के संभावित परिणामों का भयावह पूर्वावलोकन प्रदान किया।
- संयुक्त राज्य अमेरिका में एक स्थानीय समस्या के रूप में शुरू हुआ यह मामला शीघ्र ही विश्व भर में फैल गया, जिससे दुनिया भर में उड़ान संचालन, वायु यातायात नियंत्रण प्रणाली और स्टॉक एक्सचेंज के क्रिया कलापों में बाधा उत्पन्न हुई।
- भारतीय कंप्यूटर आपातकालीन प्रतिक्रिया दल (CERT-IN) ने इस घटना के लिये एक गंभीरता रेटिंग जारी की, जिसमें इसके दूरगामी प्रभावों पर प्रकाश डाला गया। हालाँकि यह कोई जानबूझकर किया गया हमला नहीं था, परंतु इस घटना ने हमारे परस्पर जुड़े डिजिटल बुनियादी ढाँचे की कमज़ोरी को प्रदर्शित किया।
- अन्य साइबर हमले:
- वर्ष 2017 के वानाक्राई रैनसमवेयर हमले ने 150 देशों के 230,000 से अधिक कंप्यूटरों को संक्रमित कर दिया, जिससे अरबों डॉलर का नुकसान हुआ।
- वर्ष 2017 में शमून कंप्यूटर वायरस का हमला, जिसने मुख्य रूप से तेल कंपनियों को निशाना बनाया था और इसे उस समय "इतिहास का सबसे बड़ा हैक" करार दिया गया था।
- वर्ष 2017 में 'पेट्या' मैलवेयर हमला हुआ, जिसने यूरोप, यूनाइटेड किंगडम, संयुक्त राज्य अमेरिका और ऑस्ट्रेलिया में बैंकों, बिजली ग्रिडों तथा कई संस्थानों को गंभीर रूप से प्रभावित किया।
- वर्ष 2010 का स्टक्सनेट हमला, जिसने 200,000 से अधिक कंप्यूटरों को क्षतिग्रस्त कर दिया था तथा विशेष रूप से ईरान के परमाणु कार्यक्रम को निशाना बनाया था, राज्य प्रायोजित साइबर युद्ध की संभावना को दर्शाता है।
विश्व भर में AI संबंधी विधान क्या हैं?
यूरोपियन यूनियन(EU):
- यूरोपीय संघ ने 9 दिसंबर, 2023 को EU AI अधिनियम लागू किया, जिससे वैश्विक स्तर पर AI विनियमन के लिये पहला विधिक रूप से बाध्यकारी ढाँचा स्थापित हो गया।
- यूरोपीय संघ का AI अधिनियम जोखिम-आधारित दृष्टिकोण अपनाता है तथा मानवता के लिये संभावित जोखिम के आधार पर AI प्रणालियों को वर्गीकृत करता है।
- न्यूनतम जोखिम वाले AI अनुप्रयोग, जैसे कि अनुशंसा प्रणालियाँ, अनिवार्य नियमों से मुक्त हैं।
- उच्च जोखिम वाली AI प्रणालियाँ, जिनमें चिकित्सा, शिक्षा और भर्ती में उपयोग की जाने वाली प्रणालियाँ शामिल हैं, सख्त आवश्यकताओं के अधीन हैं जिनमें शामिल हैं:
a) जोखिम-शमन प्रणालियाँ
b) उच्च-गुणवत्ता वाले डेटा सेट
c) गतिविधि लॉगिंग
d) विस्तृत दस्तावेज़ीकरण
e)स्पष्ट उपयोगकर्त्ता जानकारी
f)मानवीय निगरानी
g)मज़बूत सटीकता और साइबर सुरक्षा उपाय - सभी AI सिस्टम को उपयोगकर्त्ताओं को स्पष्ट रूप से बताना होगा कि वे AI-संचालित हैं।
- ऐसी AI प्रणालियाँ जिन्हें "अस्वीकार्य जोखिम" माना जाता है, जैसे कि सामाजिक स्कोरिंग और कार्यस्थल पर भावना-संवेदन उपकरण, निषिद्ध हैं।
- यूरोपीय संघ के AI अधिनियम का उद्देश्य AI क्षेत्र में नवाचार और प्रतिस्पर्द्धा को बढ़ावा देने के साथ विनियमन को संतुलित करना है।
यूनाइटेड किंगडम (UK):
- ब्रिटेन ने AI विनियमन के लिये "नवाचार समर्थक" दृष्टिकोण अपनाया है तथा नए और जटिल प्रतिबंधों को अस्वीकार किया है।
- मौजूदा नियामकों को UK के मूल AI सिद्धांतों की व्याख्या और कार्यान्वयन का काम सौंपा गया है:
a) सुरक्षा
b) पारदर्शिता
c) निष्पक्षता
d) उत्तरदायित्व
e) प्रतिस्पर्द्धात्मकता - UK सरकार ने विनियामकों के बीच AI जोखिमों की एक आम समझ बनाने के लिये "केंद्रीय कार्यक्रम" स्थापित किये हैं।
- UK सरकार ने कहा है कि वह AI विनियमन पर तत्काल कोई विधान पारित नहीं करेगी।
- UK ने नवंबर 2023 में AI सुरक्षा के लिये अंतर्राष्ट्रीय शिखर सम्मेलन की मेज़बानी की, जिसके परिणामस्वरूप 28 देशों ने ब्लेचली घोषणा पर हस्ताक्षर किये।
- ब्लेचली घोषणा का उद्देश्य AI जोखिमों की साझा समझ स्थापित करना और जोखिम प्रबंधन में अंतर्राष्ट्रीय सहयोग पर ज़ोर देना है।
चीन:
- चीन ने वर्ष 2021 से AI विनियमन लागू करना आरंभ कर दिया है, जो मुख्य रूप से जनरेटिव AI और डीपफेक पर केंद्रित है।
- चीनी नियम AI-संचालित अनुशंसा प्रणालियों पर नियंत्रण लगाते हैं, जिनमें शामिल हैं:
a) गतिशील मूल्य निर्धारण पर प्रतिबंध
b) AI-जनरेटेड सामग्री के साथ बातचीत करने वाले उपयोगकर्त्ताओं के लिये सख्त पारदर्शिता आवश्यकताएँ - चीन के AI शासन दृष्टिकोण का उद्देश्य सुरक्षा संरक्षण को नवाचार प्रोत्साहनों के साथ संतुलित करना है।
- चीनी AI विनियमन मुख्य रूप से राज्य संस्थाओं के बजाय निजी कंपनियों के लिये निर्देशित हैं।
- चीन के AI नियम सामाजिक व्यवस्था बनाए रखने और भ्रामक सूचना और गलत सूचनाओं से निपटने पर ज़ोर देते हैं।
- चीनी AI नियमों के अनुसार राज्य द्वारा परिभाषित "समाजवादी मूल मूल्यों" का पालन करना आवश्यक है।
भारत में AI संबंधी विधान क्या हैं?
- भारतीय विधिक प्रणाली में वर्तमान में कृत्रिम बुद्धिमत्ता (AI) के उपयोग को नियंत्रित करने वाले संहिताबद्ध विधान, वैधानिक नियम या विनियमन का अभाव है।
- भारत में AI प्रौद्योगिकियों के ज़िम्मेदार विकास, परिनियोजन और प्रबंधन में हितधारकों का मार्गदर्शन करने के लिये AI के लिये एक व्यापक नियामक ढाँचे की स्थापना आवश्यक मानी जाती है।
- भारत में AI के विकास और उपयोग के लिये कुछ क्षेत्र-विशिष्ट रूपरेखाओं की पहचान की गई है:
- वित्तीय क्षेत्र में, भारतीय प्रतिभूति और विनिमय बोर्ड (SEBI) ने जनवरी 2019 में एक परिपत्र जारी किया, जिसमें स्टॉकब्रोकर्स, डिपॉजिटरी प्रतिभागियों, मान्यता प्राप्त स्टॉक एक्सचेंजों और डिपॉजिटरीज़ द्वारा उपयोग किये जाने वाले AI तथा मशीन लर्निंग (ML) अनुप्रयोगों एवं प्रणालियों के लिये रिपोर्टिंग आवश्यकताओं को संबोधित किया गया।
- स्वास्थ्य सेवा क्षेत्र में, राष्ट्रीय डिजिटल स्वास्थ्य मिशन (NDHM) की रणनीति स्वास्थ्य संबंधी अनुप्रयोगों में AI प्रणालियों की विश्वसनीयता सुनिश्चित करने के लिये मार्गदर्शन और मानकों को विकसित करने की आवश्यकता को मान्यता देती है।
- 9 जून, 2023 को इलेक्ट्रॉनिक्स एवं सूचना प्रौद्योगिकी मंत्रालय (MEITY) ने प्रस्ताव दिया कि भारत में AI को अन्य उभरती प्रौद्योगिकियों के समान विनियमन के अधीन किया जा सकता है, जिसका प्राथमिक उद्देश्य डिजिटल उपयोगकर्त्ताओं को संभावित हानि से बचाना है।
- MEITY ने निम्नलिखित कारणों का हवाला देते हुए कहा है कि AI द्वारा मानव नौकरियों की जगह लेने का कथित खतरा आसन्न नहीं है:
- वर्तमान AI प्रणालियाँ मुख्य रूप से कार्य-उन्मुख हैं।
- मौजूदा AI प्रौद्योगिकियों में मानव श्रम को पूरी तरह से बदलने के लिये आवश्यक परिष्कार का अभाव है।
- AI प्रणालियों में मानवीय तर्क और तार्किक क्षमताएँ नहीं होती हैं।
- भारत में AI-विशिष्ट व्यापक नियामक ढाँचे के अभाव के कारण विभिन्न क्षेत्रों में उत्तरदायी AI प्रथाओं को सुनिश्चित करने के लिये दिशा-निर्देशों एवं मानकों का विकास आवश्यक है।
- भारत में AI के प्रस्तावित विनियमन का उद्देश्य देश की व्यापक डिजिटल शासन रणनीति के साथ संरेखित करना और AI प्रौद्योगिकियों से जुड़े संभावित जोखिमों का समाधान करना है।
- भारत में AI विनियमों के विकास में उद्योग विशेषज्ञों, शिक्षाविदों और नीति निर्माताओं सहित प्रासंगिक हितधारकों के परामर्श शामिल होने की संभावना है।
- भारत में भविष्य में किसी भी AI विनियामक ढाँचे में देश-विशिष्ट आवश्यकताओं और चुनौतियों का समाधान करते हुए अंतर्राष्ट्रीय सर्वोत्तम प्रथाओं पर विचार किये जाने की संभावना है।
- भारत में AI के विनियमन के लिये मौजूदा विधानों में संशोधन या नए विधान बनाने की आवश्यकता हो सकती है, ताकि AI प्रौद्योगिकियों की विशिष्ट विशेषताओं और निहितार्थों को प्रभावी ढंग से संबोधित किया जा सके।
साइबर धोखाधड़ी और हैकिंग से वर्तमान में क्या खतरे हैं?
- जबकि AI दुष्प्रचार एक महत्त्वपूर्ण वैश्विक खतरा बन गया है, साइबर हमले व्यक्तियों के लिये एक तत्काल खतरा बने हुए हैं।
- हाल के वर्षों में साइबर धोखाधड़ी और हैकिंग की घटनाओं में तेज़ी से वृद्धि हुई है, जिससे पीड़ितों की संख्या बढ़ती जा रही है।
- साइबर ठग सामान्य तौर पर डिलीवरी कंपनी के एजेंट बनकर दुर्भावनापूर्ण उद्देश्यों के लिये व्यक्तिगत सूचनाएँ प्राप्त करते हैं, जिससे दैनिक जीवन को खतरा उत्पन्न होता है।
- कूटरचित क्रेडिट कार्ड लेन-देन में उल्लेखनीय वृद्धि हुई है, जिसमें अपराधी अनजान व्यक्तियों को धोखा देने के लिये व्यक्तिगत जानकारी प्राप्त करते हैं।
- व्यावसायिक ईमेल के साथ छेड़छाड़ का प्रचलन तेज़ी से बढ़ रहा है।
- फिशिंग, साइबर धोखाधड़ी का एक व्यापक रूप है, जिसमें ग्राहक आईडी, क्रेडिट/डेबिट कार्ड नंबर और पिन जैसी व्यक्तिगत सूचनाओं की चोरी शामिल है।
- स्पैमिंग, जिसे इलेक्ट्रॉनिक मैसेजिंग सिस्टम के माध्यम से अनचाहे वाणिज्यिक संदेशों की प्राप्ति के रूप में परिभाषित किया जाता है, एक व्यापक मुद्दा है।
- व्यक्तिगत पहचान की चोरी सबसे गंभीर और व्यापक साइबर सुरक्षा खतरों में से एक के रूप में उभरी है।
- विश्व भर में लोकतांत्रिक सरकारें डिजिटल खतरों से निपटने के लिये एक सुदृढ़ तंत्र लागू करने का प्रयास कर रही हैं।
- उद्योग और निजी संस्थान साइबर सुरक्षा उपायों में पिछड़ रहे हैं, जिससे वे डिजिटल हमलों के प्रति विशेष रूप से असुरक्षित हो गए हैं।
- हालाँकि फायरवॉल, एंटी-वायरस सुरक्षा एवं बैकअप/आपदा रिकवरी सिस्टम का कार्यान्वयन आवश्यक है, परंतु साइबर सुरक्षा जोखिमों को पूरी तरह से संबोधित करने के लिये अपर्याप्त है।
- कई कॉर्पोरेट मुख्य कार्यकारी अधिकारियों के पास डिजिटल खतरों को प्रभावी ढंग से संबोधित करने के लिये पर्याप्त तैयारी का अभाव है।
- संगठनात्मक साइबर सुरक्षा उपायों का आकलन करने और सलाह देने के लिये एक मुख्य सूचना एवं सुरक्षा अधिकारी की नियुक्ति उचित है।
- डिजिटल खतरों के विषय में जागरूकता साइबर और AI-निर्देशित खतरों का सामना करने में प्रारंभिक कदम है।
- जनरेटिव AI सामग्री का अनधिकृत उपयोग डिजिटल बुलिंग में एक आम उपकरण बन गया है।
- डिजिटल खतरों की रोकथाम के लिये निजी और सार्वजनिक दोनों क्षेत्रों में पर्याप्त प्रयास तथा उचित बजटीय आवंटन की आवश्यकता है।
- संभावित रूप से खतरनाक डिजिटल प्रौद्योगिकियों के कारण सत्ता में बैठे लोगों को विशेष रूप से लोकतांत्रिक समाजों में अधिक ध्यान देने की आवश्यकता है।
- डिजिटल बुलिंग और अन्य प्रकार के जालसाजी के विषय में जागरूकता ऐसी स्थितियों को बढ़ने से रोकने के लिये महत्त्वपूर्ण है।
- डिजिटल खतरों से निपटने के लिये विभिन्न हितधारकों के बीच समन्वित कार्यवाही की आवश्यकता है।
- विशेष रूप से लोकतांत्रिक देश, डिजिटल क्षेत्र में नए स्रोतों से साइबर हमलों का सामना करते हैं।
- सामाजिक लचीलापन और अस्तित्व सुनिश्चित करने के लिये डिजिटल निगरानी, दुष्प्रचार, बुलिंग तथा जालसाज़ी का सामना करने की तत्काल आवश्यकता है।
निष्कर्ष:
वर्ष 2024 में AI और साइबर खतरों का उदय, सुदृढ़ सुरक्षा उपायों तथा स्पष्ट विनियमों की तत्काल आवश्यकता को प्रकट करता है। जबकि AI-संचालित भ्रामक सूचना और उन्नत साइबर हमले महत्त्वपूर्ण जोखिम हैं, सरकारों तथा व्यवसायों के लिये सतर्क एवं सक्रिय रहना महत्त्वपूर्ण है। इन उभरते खतरों से बचने के लिये, हमें बेहतर साइबर सुरक्षा प्रथाओं और AI को नियंत्रित करने वाले प्रभावी विधानों की आवश्यकता है। हमारे डिजिटल तंत्र को सुरक्षित और लचीला बनाए रखने के लिये निरंतर सहयोग तथा अनुकूलन महत्त्वपूर्ण है।