होम / एडिटोरियल

अंतर्राष्ट्रीय नियम

AI (आर्टिफिशियल इंटेलिजेंस)

    «    »
 16-Aug-2024

स्रोत: द हिंदू

परिचय:

वर्ष 2024 का आरंभ नए सुरक्षा खतरों, विशेष रूप से आर्टिफिशियल इंटेलिजेंस और इसके विभिन्न रूपों से उत्पन्न होने वाले खतरों के विषय में चिंताओं के साथ हुआ। विश्व भर के सुरक्षा विशेषज्ञों ने साइबर हमलों की लहर की आशंका जताई, जिसमें फ्राँस में होने वाले 33वें ग्रीष्मकालीन ओलंपिक खेलों को मुख्य लक्ष्य के रूप में देखा गया। ओलंपिक खेलों के दौरान ऐसी बड़ी घटनाओं का न होना राहत की बात थी, विशेषज्ञों ने चेतावनी दी कि सतर्कता बनाए रखी जानी चाहिये क्योंकि नए प्रकार के डिजिटल खतरे सामने आते रहते हैं। पेरिस ओलंपिक का शांतिपूर्ण समापन सुरक्षा प्रबंधकों के लिये एक विजय है, परंतु यह उभरती हुई सुरक्षा चुनौतियों के सामने निरंतर सतर्कता की आवश्यकता के अंत का संकेत नहीं है।

AI-सक्षम भ्रामक सूचनाओं का उदय:

  • वर्ष 2024 में भ्रामक सूचनाओं में अभूतपूर्व वृद्धि देखी जाएगी, जिसे कृत्रिम बुद्धिमत्ता (AI) में प्रगति द्वारा सुगम बनाया जाएगा।
  • जनवरी 2024 में ताइवान के चुनाव AI हमले का एक स्पष्ट उदाहरण थे, जिसमें राजनीतिक परिदृश्य भ्रामक सूचनाओं एवं वीडियो से भर गया था, जिससे मतदाताओं में व्यापक भ्रम उत्पन्न हो गया था।
  • यद्यपि प्रारंभ में इस घटना के स्रोत के रूप में चीन पर संदेह किया गया था, परंतु इस घटना ने एक महत्त्वपूर्ण बिंदु प्रकट किया: आज के डिजिटल युग में, भ्रामक सूचना का वास्तविक स्रोत प्रायः अस्पष्ट रह जाता है।

डीपफेक का प्रसार:

  • डिजिटल रूप से हेरफेर किये गए वीडियो, ऑडियो या छवियों से युक्त डीप फेक तेज़ी से प्रचलित और परिष्कृत हो गए हैं।
  • AI द्वारा उत्पन्न ये कूट रचना बार-बार चर्चाओं में रही हैं, जिससे भ्रामक सूचनाओं का ऐसा प्रसार होता है, जिसे दूर करना प्रायः कठिन होता है।
  • डीप फेक के कारण होने वाली क्षति प्रायः अपरिवर्तनीय होती है, क्योंकि प्रायः मिथ्या सूचनाओं के सार्वजनिक चेतना में स्थापित हो जाने के काफी समय बाद ही सच्चाई सामने आती है।

साइबर हमलों और AI का अंतर्संबंध:

  • साइबर हमलों और AI-सक्षम भ्रामक सूचनाओं का संयोजन राष्ट्रीय सुरक्षा के लिये एक बड़ा खतरा बनकर उभरा है।
  • यूक्रेन में चल रहा संघर्ष इस बात का एक उदाहरण है कि कैसे विरोधी पक्ष दूरसंचार और विद्युत ग्रिड सहित महत्त्वपूर्ण बुनियादी ढाँचे को बाधित करने के लिये इन रणनीतियों का उपयोग कर सकते हैं।
  • इस हाइब्रिड युद्ध पद्धति ने अत्यधिक विनाश किया है और एक व्यापक रक्षा रणनीति की आवश्यकता को रेखांकित किया है जो साइबर तथा AI-सक्षम दोनों खतरों से निपट सके।
  • क्राउडस्ट्राइक आउटेज:
    • वर्ष 2024 में, माइक्रोसॉफ्ट विंडोज़ को प्रभावित करने वाली एक सॉफ्टवेयर अपडेट गड़बड़ी ने बड़े स्तर पर साइबर हमले के संभावित परिणामों का भयावह पूर्वावलोकन प्रदान किया।
    • संयुक्त राज्य अमेरिका में एक स्थानीय समस्या के रूप में शुरू हुआ यह मामला शीघ्र ही विश्व भर में फैल गया, जिससे दुनिया भर में उड़ान संचालन, वायु यातायात नियंत्रण प्रणाली और स्टॉक एक्सचेंज के क्रिया कलापों में बाधा उत्पन्न हुई।
    • भारतीय कंप्यूटर आपातकालीन प्रतिक्रिया दल (CERT-IN) ने इस घटना के लिये एक गंभीरता रेटिंग जारी की, जिसमें इसके दूरगामी प्रभावों पर प्रकाश डाला गया। हालाँकि यह कोई जानबूझकर किया गया हमला नहीं था, परंतु इस घटना ने हमारे परस्पर जुड़े डिजिटल बुनियादी ढाँचे की कमज़ोरी को प्रदर्शित किया।
  • अन्य साइबर हमले:
    • वर्ष 2017 के वानाक्राई रैनसमवेयर हमले ने 150 देशों के 230,000 से अधिक कंप्यूटरों को संक्रमित कर दिया, जिससे अरबों डॉलर का नुकसान हुआ।
    • वर्ष 2017 में शमून कंप्यूटर वायरस का हमला, जिसने मुख्य रूप से तेल कंपनियों को निशाना बनाया था और इसे उस समय "इतिहास का सबसे बड़ा हैक" करार दिया गया था।
    • वर्ष 2017 में 'पेट्या' मैलवेयर हमला हुआ, जिसने यूरोप, यूनाइटेड किंगडम, संयुक्त राज्य अमेरिका और ऑस्ट्रेलिया में बैंकों, बिजली ग्रिडों तथा कई संस्थानों को गंभीर रूप से प्रभावित किया।
    • वर्ष 2010 का स्टक्सनेट हमला, जिसने 200,000 से अधिक कंप्यूटरों को क्षतिग्रस्त कर दिया था तथा विशेष रूप से ईरान के परमाणु कार्यक्रम को निशाना बनाया था, राज्य प्रायोजित साइबर युद्ध की संभावना को दर्शाता है।

विश्व भर में AI संबंधी विधान क्या हैं?

यूरोपियन यूनियन(EU):

  • यूरोपीय संघ ने 9 दिसंबर, 2023 को EU AI अधिनियम लागू किया, जिससे वैश्विक स्तर पर AI विनियमन के लिये पहला विधिक रूप से बाध्यकारी ढाँचा स्थापित हो गया।
  • यूरोपीय संघ का AI अधिनियम जोखिम-आधारित दृष्टिकोण अपनाता है तथा मानवता के लिये संभावित जोखिम के आधार पर AI प्रणालियों को वर्गीकृत करता है।
  • न्यूनतम जोखिम वाले AI अनुप्रयोग, जैसे कि अनुशंसा प्रणालियाँ, अनिवार्य नियमों से मुक्त हैं।
  • उच्च जोखिम वाली AI प्रणालियाँ, जिनमें चिकित्सा, शिक्षा और भर्ती में उपयोग की जाने वाली प्रणालियाँ शामिल हैं, सख्त आवश्यकताओं के अधीन हैं जिनमें शामिल हैं:
    a) जोखिम-शमन प्रणालियाँ
    b) उच्च-गुणवत्ता वाले डेटा सेट
    c) गतिविधि लॉगिंग
    d) विस्तृत दस्तावेज़ीकरण
    e)स्पष्ट उपयोगकर्त्ता जानकारी
    f)मानवीय निगरानी
    g)मज़बूत सटीकता और साइबर सुरक्षा उपाय
  • सभी AI सिस्टम को उपयोगकर्त्ताओं को स्पष्ट रूप से बताना होगा कि वे AI-संचालित हैं।
  • ऐसी AI प्रणालियाँ जिन्हें "अस्वीकार्य जोखिम" माना जाता है, जैसे कि सामाजिक स्कोरिंग और कार्यस्थल पर भावना-संवेदन उपकरण, निषिद्ध हैं।
  • यूरोपीय संघ के AI अधिनियम का उद्देश्य AI क्षेत्र में नवाचार और प्रतिस्पर्द्धा को बढ़ावा देने के साथ विनियमन को संतुलित करना है।

यूनाइटेड किंगडम (UK):

  • ब्रिटेन ने AI विनियमन के लिये "नवाचार समर्थक" दृष्टिकोण अपनाया है तथा नए और जटिल प्रतिबंधों को अस्वीकार किया है।
  • मौजूदा नियामकों को UK के मूल AI सिद्धांतों की व्याख्या और कार्यान्वयन का काम सौंपा गया है:
    a) सुरक्षा
    b) पारदर्शिता
    c) निष्पक्षता
    d) उत्तरदायित्व
    e) प्रतिस्पर्द्धात्मकता
  • UK सरकार ने विनियामकों के बीच AI जोखिमों की एक आम समझ बनाने के लिये "केंद्रीय कार्यक्रम" स्थापित किये हैं।
  • UK सरकार ने कहा है कि वह AI विनियमन पर तत्काल कोई विधान पारित नहीं करेगी।
  • UK ने नवंबर 2023 में AI सुरक्षा के लिये अंतर्राष्ट्रीय शिखर सम्मेलन की मेज़बानी की, जिसके परिणामस्वरूप 28 देशों ने ब्लेचली घोषणा पर हस्ताक्षर किये।
  • ब्लेचली घोषणा का उद्देश्य AI जोखिमों की साझा समझ स्थापित करना और जोखिम प्रबंधन में अंतर्राष्ट्रीय सहयोग पर ज़ोर देना है।

चीन:

  • चीन ने वर्ष 2021 से AI विनियमन लागू करना आरंभ कर दिया है, जो मुख्य रूप से जनरेटिव AI और डीपफेक पर केंद्रित है।
  • चीनी नियम AI-संचालित अनुशंसा प्रणालियों पर नियंत्रण लगाते हैं, जिनमें शामिल हैं:
    a) गतिशील मूल्य निर्धारण पर प्रतिबंध
    b) AI-जनरेटेड सामग्री के साथ बातचीत करने वाले उपयोगकर्त्ताओं के लिये सख्त पारदर्शिता आवश्यकताएँ
  • चीन के AI शासन दृष्टिकोण का उद्देश्य सुरक्षा संरक्षण को नवाचार प्रोत्साहनों के साथ संतुलित करना है।
  • चीनी AI विनियमन मुख्य रूप से राज्य संस्थाओं के बजाय निजी कंपनियों के लिये निर्देशित हैं।
  • चीन के AI नियम सामाजिक व्यवस्था बनाए रखने और भ्रामक सूचना और गलत सूचनाओं से निपटने पर ज़ोर देते हैं।
  • चीनी AI नियमों के अनुसार राज्य द्वारा परिभाषित "समाजवादी मूल मूल्यों" का पालन करना आवश्यक है।

भारत में AI संबंधी विधान क्या हैं?

  • भारतीय विधिक प्रणाली में वर्तमान में कृत्रिम बुद्धिमत्ता (AI) के उपयोग को नियंत्रित करने वाले संहिताबद्ध विधान, वैधानिक नियम या विनियमन का अभाव है।
  • भारत में AI प्रौद्योगिकियों के ज़िम्मेदार विकास, परिनियोजन और प्रबंधन में हितधारकों का मार्गदर्शन करने के लिये AI के लिये एक व्यापक नियामक ढाँचे की स्थापना आवश्यक मानी जाती है।
  • भारत में AI के विकास और उपयोग के लिये कुछ क्षेत्र-विशिष्ट रूपरेखाओं की पहचान की गई है:
    • वित्तीय क्षेत्र में, भारतीय प्रतिभूति और विनिमय बोर्ड (SEBI) ने जनवरी 2019 में एक परिपत्र जारी किया, जिसमें स्टॉकब्रोकर्स, डिपॉजिटरी प्रतिभागियों, मान्यता प्राप्त स्टॉक एक्सचेंजों और डिपॉजिटरीज़ द्वारा उपयोग किये जाने वाले AI तथा मशीन लर्निंग (ML) अनुप्रयोगों एवं प्रणालियों के लिये रिपोर्टिंग आवश्यकताओं को संबोधित किया गया।
    • स्वास्थ्य सेवा क्षेत्र में, राष्ट्रीय डिजिटल स्वास्थ्य मिशन (NDHM) की रणनीति स्वास्थ्य संबंधी अनुप्रयोगों में AI प्रणालियों की विश्वसनीयता सुनिश्चित करने के लिये मार्गदर्शन और मानकों को विकसित करने की आवश्यकता को मान्यता देती है।
  • 9 जून, 2023 को इलेक्ट्रॉनिक्स एवं सूचना प्रौद्योगिकी मंत्रालय (MEITY) ने प्रस्ताव दिया कि भारत में AI को अन्य उभरती प्रौद्योगिकियों के समान विनियमन के अधीन किया जा सकता है, जिसका प्राथमिक उद्देश्य डिजिटल उपयोगकर्त्ताओं को संभावित हानि से बचाना है।
  • MEITY ने निम्नलिखित कारणों का हवाला देते हुए कहा है कि AI द्वारा मानव नौकरियों की जगह लेने का कथित खतरा आसन्न नहीं है:
    • वर्तमान AI प्रणालियाँ मुख्य रूप से कार्य-उन्मुख हैं।
    • मौजूदा AI प्रौद्योगिकियों में मानव श्रम को पूरी तरह से बदलने के लिये आवश्यक परिष्कार का अभाव है।
    • AI प्रणालियों में मानवीय तर्क और तार्किक क्षमताएँ नहीं होती हैं।
  • भारत में AI-विशिष्ट व्यापक नियामक ढाँचे के अभाव के कारण विभिन्न क्षेत्रों में उत्तरदायी AI प्रथाओं को सुनिश्चित करने के लिये दिशा-निर्देशों एवं मानकों का विकास आवश्यक है।
  • भारत में AI के प्रस्तावित विनियमन का उद्देश्य देश की व्यापक डिजिटल शासन रणनीति के साथ संरेखित करना और AI प्रौद्योगिकियों से जुड़े संभावित जोखिमों का समाधान करना है।
  • भारत में AI विनियमों के विकास में उद्योग विशेषज्ञों, शिक्षाविदों और नीति निर्माताओं सहित प्रासंगिक हितधारकों के परामर्श शामिल होने की संभावना है।
  • भारत में भविष्य में किसी भी AI विनियामक ढाँचे में देश-विशिष्ट आवश्यकताओं और चुनौतियों का समाधान करते हुए अंतर्राष्ट्रीय सर्वोत्तम प्रथाओं पर विचार किये जाने की संभावना है।
  • भारत में AI के विनियमन के लिये मौजूदा विधानों में संशोधन या नए विधान बनाने की आवश्यकता हो सकती है, ताकि AI प्रौद्योगिकियों की विशिष्ट विशेषताओं और निहितार्थों को प्रभावी ढंग से संबोधित किया जा सके।

साइबर धोखाधड़ी और हैकिंग से वर्तमान में क्या खतरे हैं?

  • जबकि AI दुष्प्रचार एक महत्त्वपूर्ण वैश्विक खतरा बन गया है, साइबर हमले व्यक्तियों के लिये एक तत्काल खतरा बने हुए हैं।
  • हाल के वर्षों में साइबर धोखाधड़ी और हैकिंग की घटनाओं में तेज़ी से वृद्धि हुई है, जिससे पीड़ितों की संख्या बढ़ती जा रही है।
  • साइबर ठग सामान्य तौर पर डिलीवरी कंपनी के एजेंट बनकर दुर्भावनापूर्ण उद्देश्यों के लिये व्यक्तिगत सूचनाएँ प्राप्त करते हैं, जिससे दैनिक जीवन को खतरा उत्पन्न होता है।
  • कूटरचित क्रेडिट कार्ड लेन-देन में उल्लेखनीय वृद्धि हुई है, जिसमें अपराधी अनजान व्यक्तियों को धोखा देने के लिये व्यक्तिगत जानकारी प्राप्त करते हैं।
  • व्यावसायिक ईमेल के साथ छेड़छाड़ का प्रचलन तेज़ी से बढ़ रहा है।
  • फिशिंग, साइबर धोखाधड़ी का एक व्यापक रूप है, जिसमें ग्राहक आईडी, क्रेडिट/डेबिट कार्ड नंबर और पिन जैसी व्यक्तिगत सूचनाओं की चोरी शामिल है।
  • स्पैमिंग, जिसे इलेक्ट्रॉनिक मैसेजिंग सिस्टम के माध्यम से अनचाहे वाणिज्यिक संदेशों की प्राप्ति के रूप में परिभाषित किया जाता है, एक व्यापक मुद्दा है।
  • व्यक्तिगत पहचान की चोरी सबसे गंभीर और व्यापक साइबर सुरक्षा खतरों में से एक के रूप में उभरी है।
  • विश्व भर में लोकतांत्रिक सरकारें डिजिटल खतरों से निपटने के लिये एक सुदृढ़ तंत्र लागू करने का प्रयास कर रही हैं।
  • उद्योग और निजी संस्थान साइबर सुरक्षा उपायों में पिछड़ रहे हैं, जिससे वे डिजिटल हमलों के प्रति विशेष रूप से असुरक्षित हो गए हैं।
  • हालाँकि फायरवॉल, एंटी-वायरस सुरक्षा एवं बैकअप/आपदा रिकवरी सिस्टम का कार्यान्वयन आवश्यक है, परंतु साइबर सुरक्षा जोखिमों को पूरी तरह से संबोधित करने के लिये अपर्याप्त है।
  • कई कॉर्पोरेट मुख्य कार्यकारी अधिकारियों के पास डिजिटल खतरों को प्रभावी ढंग से संबोधित करने के लिये पर्याप्त तैयारी का अभाव है।
  • संगठनात्मक साइबर सुरक्षा उपायों का आकलन करने और सलाह देने के लिये एक मुख्य सूचना एवं सुरक्षा अधिकारी की नियुक्ति उचित है।
  • डिजिटल खतरों के विषय में जागरूकता साइबर और AI-निर्देशित खतरों का सामना करने में प्रारंभिक कदम है।
  • जनरेटिव AI सामग्री का अनधिकृत उपयोग डिजिटल बुलिंग में एक आम उपकरण बन गया है।
  • डिजिटल खतरों की रोकथाम के लिये निजी और सार्वजनिक दोनों क्षेत्रों में पर्याप्त प्रयास तथा उचित बजटीय आवंटन की आवश्यकता है।
  • संभावित रूप से खतरनाक डिजिटल प्रौद्योगिकियों के कारण सत्ता में बैठे लोगों को विशेष रूप से लोकतांत्रिक समाजों में अधिक ध्यान देने की आवश्यकता है।
  • डिजिटल बुलिंग और अन्य प्रकार के जालसाजी के विषय में जागरूकता ऐसी स्थितियों को बढ़ने से रोकने के लिये महत्त्वपूर्ण है।
  • डिजिटल खतरों से निपटने के लिये विभिन्न हितधारकों के बीच समन्वित कार्यवाही की आवश्यकता है।
  • विशेष रूप से लोकतांत्रिक देश, डिजिटल क्षेत्र में नए स्रोतों से साइबर हमलों का सामना करते हैं।
  • सामाजिक लचीलापन और अस्तित्व सुनिश्चित करने के लिये डिजिटल निगरानी, ​​दुष्प्रचार, बुलिंग तथा जालसाज़ी का सामना करने की तत्काल आवश्यकता है।

निष्कर्ष:

वर्ष 2024 में AI और साइबर खतरों का उदय, सुदृढ़ सुरक्षा उपायों तथा स्पष्ट विनियमों की तत्काल आवश्यकता को प्रकट करता है। जबकि AI-संचालित भ्रामक सूचना और उन्नत साइबर हमले महत्त्वपूर्ण जोखिम हैं, सरकारों तथा व्यवसायों के लिये सतर्क एवं सक्रिय रहना महत्त्वपूर्ण है। इन उभरते खतरों से बचने के लिये, हमें बेहतर साइबर सुरक्षा प्रथाओं और AI को नियंत्रित करने वाले प्रभावी विधानों की आवश्यकता है। हमारे डिजिटल तंत्र को सुरक्षित और लचीला बनाए रखने के लिये निरंतर सहयोग तथा अनुकूलन महत्त्वपूर्ण है।