EU का प्रस्तावित AI एक्ट भारत के लिए एक मॉडल बन सकता है!
“भारत में, हम AI इनोवेशन को उत्साह भरी भावना से देख रहे हैं। AI के कई सकारात्मक पहलू हैं, लेकिन इससे जुड़े नकारात्मक पहलू भी उतनी ही चिंता का विषय हैं। AI परिवर्तनकारी है, लेकिन इसे यथासंभव पारदर्शी बनाया जाना चाहिए। भारत AI के ज़िम्मेदार व नैतिक उपयोग के लिए प्रतिबद्ध है।”
प्रधानमंत्री नरेंद्र मोदी ने 12 दिसंबर को तीन दिवसीय ग्लोबल पार्टनरशिप ऑन आर्टिफिशियल इंटेलिजेंस (GPAI) शिखर सम्मेलन का उद्घाटन करते हुए यह घोषणा की।
प्रधानमंत्री द्वारा उजागर की गई भारतीय चिंताओं को दुनिया भर में साझा किया गया। इनमें से सिर्फ यूरोपीय संघ ने AI प्रौद्योगिकी के उपयोग को रेगुलेट करने का बीड़ा उठाया है, ताकि इस आशय के कानून को अंतिम रूप देकर इसके नकारात्मक प्रभावों को रोका जा सके।
9 दिसंबर 2023 को, मैराथन वार्ताओं के बाद, यूरोपीय संसद के विधायक प्रस्तावित EU आर्टिफिशियल इंटेलिजेंस अधिनियम (EU Artificial Intelligence Act) पर एक राजनीतिक समझौते पर पहुंचे। यह एक अग्रणी कानून है, जो इसके नकारात्मक प्रभावों को रोकने के लिए आर्टिफिशियल इंटेलिजेंस के उपयोग को रेगुलेट करने का प्रयास करता है।
कोई भी प्रौद्योगिकी, चाहे वह परमाणु प्रौद्योगिकी हो या जैव प्रौद्योगिकी या फिर कोई अन्य प्रौद्योगिकी, उसके अपने सकारात्मक और नकारात्मक दोनों पक्ष होते हैं। न केवल प्रौद्योगिकी का उपयोग मानवता की मदद करने या मानवता को नुकसान पहुंचाने के लिए किया जा सकता है, बल्कि प्रौद्योगिकी के सकारात्मक उपयोग के अनपेक्षित प्रतिकूल परिणाम भी हो सकते हैं, जिनमें से कई उस प्रौद्योगिकी में ही अंतर्निहित रहते हैं।
आर्टिफिशियल इंटेलिजेंस, डिजिटल प्रौद्योगिकियों का सबसे उन्नत डोमेन होने के नाते, स्वास्थ्य सेवा, कृषि, उद्योग, विपणन, युद्ध, अनुसंधान और प्रकाशन आदि जैसे कई क्षेत्रों में लोगों के लिए बेहद मूल्यवान साबित हुआ है। परंतु इसमें परमाणु या आनुवंशिक विज्ञान की भांति मानवता के अस्तित्व को खतरे में डालने की क्षमता भी है।
अमेरिका, चीन, यूरोपीय संघ, जापान और भारत AI अनुप्रयोगों को विकसित करने की दौड़ में हैं और साथ ही वे AI को सुरक्षित रखने के लिए सुरक्षा उपाय भी विकसित कर रहे हैं। यूरोपीय संघ ने AI को रेगुलेट करने के लिए एक कानून बनाने का फैसला किया है, जो भारत सहित दुनिया के अन्य देशों के लिए एक मॉडल बन सकता है। चूंकि AI एक ही समय में प्रौद्योगिकी में सबसे आकर्षक प्रगति के साथ-साथ मानवता के लिए सबसे भयावह खतरे का प्रतिनिधित्व करता है, इसलिए वैश्विक ध्यान अब यूरोपीय संघ के कानून पर केंद्रित है।
AI वास्तव में क्या है?
यदि कंप्यूटर, मानव बुद्धि के समान कार्य करते हैं और विश्लेषण करते हैं, स्वतंत्र रूप से सोचते हैं, समस्या का समाधान करते हैं, और सॉफ्टवेयर प्रोग्राम लिखने जैसी नई चीजें रचते हैं तथा सेकंडों में अरबों गणनाएं भी करते हैं, तो इसे आर्टिफिशियल इंटेलिजेंस (AI) कहा जाता है।
AI सॉफ्टवेयर के आधार पर शासन के क्षेत्र में कई अनुप्रयोग हो सकते हैं, जैसे तस्वीर और चेहरे की पहचान के माध्यम से पुलीसिंग हो सकती है, कंप्यूटिंग में नए सॉफ्टवेयर लिखने में सहायता या कई भाषाओं में एक साथ अनुवाद के लिए भाषा प्रसंस्करण उपयोगी हो सकता है। इसके अलावा स्वास्थ्य देखभाल, रोग निदान, औशधि विकास और भारी मात्रा में स्वास्थ्य डेटा के प्रसंस्करण में इसका बेहतर उपयोग हो सकता है। शेयर बाजारों जैसी अर्थव्यवस्था, विपणन अनुसंधान और आनुवंशिक विज्ञान जैसे कई विज्ञान के क्षेत्रों में वैज्ञानिक अनुसंधान के लिये, और यहां तक कि प्रकाशन में ये बेहद लाभकारी होगा।
सकारात्मक उपयोग कई है लेकिन नकारात्मक प्रभाव भी साथ-साथ चलते रहते हैं
उदाहरण के लिए, AI का उपयोग चेहरे की पहचान के लिए और सभी नागरिकों के चेहरे की विशेषताओं का एक डेटाबेस संकलित करने के लिए किया जा सकता है, जो लोगों की गोपनीयता में हस्तक्षेप कर सकता है; व्यवसायिक गतिविधि और दूसरों के साथ बातचीत सहित उनके आंदोलनों और गतिविधियों को ट्रैक करने के लिए इसका दुरुपयोग किया जा सकता है।
AI का सबसे नकारात्मक परिणाम कार्यस्थल पर होगा, जहां AI मानव कार्य को विस्थापित कर सकता है और इस प्रकार बड़े पैमाने पर बेरोज़गारी का कारण बन सकता है।
इसके अलावा, यह श्रमिकों को स्वचालित नियमित मशीनों में तब्दील कर सकता है और चार्ली चैपलिन के मॉडर्न टाइम्स को 21 वीं सदी की वास्तविकता बना सकता है।
हैकर्स AI सॉफ्टवेयर को हैक कर सकते हैं और AI सिस्टम में हेरफेर कर सकते हैं। AI का उपयोग डीपफेक बनाने और महिलाओं का बहुत ही नकारात्मक चित्रण करने के लिए किया जा सकता है। आजकल ऐसे एप्स का सबसे ज़्यादा इस्तेमाल किया जा रहा है जो किसी भी महिला के चित्र के साथ छेड़छाड़ करने के लिए AI का उपयोग करता है। इस प्रकार, AI का उपयोग उनकी गरिमा के हनन के लिए किया जा सकता है जो बेहद डरावना है।
यदि प्रबंधकीय अधिकारी निर्णय लेने में गलतिययां करते हैं, तो उनकी जवाबदेही होती है। उन्हें उनकी गलतियों की सज़ा मिल सकती है। लेकिन अगर AI प्रोग्राम गलती करता है तो AI को कैसे दंडित किया जाएगा?
इसलिए AI के रेगुलेशन की सख्त आवश्यकता है। इस संदर्भ में, प्रस्तावित EU कानून AI को कैसे रेगुलेट करना चाहता है और इसे साइबर सुरक्षा और डिजिटल कार्यकर्ताओं और नागरिक समाज संगठनों से किस तरह की प्रतिक्रिया मिली है, इस पर एक अवलोकन दिलचस्प होगा।
EU आर्टिफिशियल इंटेलिजेंस अधिनियम, AI को कैसे रेगुलेट करेगा?
EU AI एक्ट काफी समय से बन रहा है। अधिनियम का पहला मसौदा संस्करण अप्रैल 2021 में यूरोपीय आयोग द्वारा प्रस्तावित किया गया था। सभी सदस्य देशों में व्यापक चर्चा के बाद, जून 2023 में, यूरोपीय आयोग द्वारा मसौदा अधिनियम के मूल पाठ में 771 संशोधन अपनाए गए। यूरोपीय संसद अब मसौदा अधिनियम के नवीनतम संशोधित संस्करण पर एक राजनीतिक समझौते पर पहुंच गई है, जिस पर आगे चर्चा होगी। EU का AI अधिनियम दुनिया भर में आर्टिफिशियल इंटेलिजेंस पर पहला व्यापक कानूनी ढांचा है और अंतिम रूप में इसके 2025 में लागू होने की उम्मीद है।
AI एक्ट का संशोधित मसौदा जोखिम-आधारित दृष्टिकोण अपनाता है। यह AI से जुड़े जोखिमों को न्यूनतम जोखिम, उच्च जोखिम, अस्वीकार्य जोखिम और विशिष्ट पारदर्शिता जोखिम में वर्गीकृत करता है। न्यूनतम जोखिम चैटजीपीटी त्रुटियों के समान हैं, जहां छात्रों को उनके प्रश्नों का उत्तर देते समय गलत जानकारी दी जाती है। उच्च जोखिमों में साइबर सुरक्षा शामिल है, जहां व्यक्तिगत डेटा चुराया जा सकता है और बैंक खातों से पैसा निकाला जा सकता है, इत्यादि। इसके अलावा, विभिन्न सत्यापन उद्देश्यों के लिए आधार पहचान, AI-आधारित पॉलीग्राफ परीक्षण और नार्को-एनालिसिस और आवाज़ पहचान प्रणाली व पुलिस द्वारा उपयोग की जाने वाली चेहरे की पहचान प्रणाली जैसी बायोमेट्रिक पहचान में प्रमुख त्रुटियां उच्च जोखिम वाले क्षेत्र हैं, जहां ये त्रुटियां निर्दोष लोगों के उत्पीड़न का कारण बन सकती हैं। यूरोपीय संघ का कानून उन सभी प्रणालियों पर प्रतिबंध लगाता है जिन्हें लोगों के मौलिक अधिकारों के लिए खतरा माना जाता है और जो ध्वनि नियंत्रण आदि के माध्यम से बच्चों को हिंसक खेलों में शामिल करते हैं, जिन्हें अस्वीकार्य जोखिम माना जाता है। डीपफेक जैसी कृत्रिम रूप से उत्पन्न या हेरफेर की गई तस्वीरें, जिन पर लेबल नहीं लगाया गया है, उन्हें विशिष्ट पारदर्शिता जोखिमों के रूप में सूचीबद्ध किया गया है।
प्रस्तावित EU कानून में- यदि कंपनी ने प्रतिबंधित AI अनुप्रयोगों का उल्लंघन किया तो 35 मिलियन यूरो या कंपनी के टर्नओवर का 7% जुर्माना लगाने का प्रावधान है।
कॉरपोरेट घरानों और नागरिक समाज द्वारा आलोचना
यूरोपीय कंपनियों ने मसौदा कानून की आलोचना करते हुए कहा है कि यह यूरोप की प्रतिस्पर्धा की सकारात्मक भावना और तकनीकी संप्रभुता को प्रभावित करेगा। 150 से अधिक अधिकारियों द्वारा हस्ताक्षरित एक खुले पत्र में कई बड़ी यूरोपीय कंपनियों ने मसौदा कानून से व्यापार पर पड़ने वाले प्रभाव के बारे में चेतावनी दी है। यूरोपीय आयोग को लिखे पत्र में कहा गया है, "हमारे आकलन में, मसौदा कानून उन चुनौतियों से प्रभावी ढंग से निपटे बिना, जिनका हम सामना कर रहे हैं, यूरोप की प्रतिस्पर्धात्मकता और तकनीकी संप्रभुता को खतरे में डाल देगा।"
जहां प्रतिस्पर्धा और लाभ का उद्देश्य कॉरपोरेट घरानों द्वारा रेगुलेशन की आलोचना को रेखांकित करता है, वहीं दूसरी ओर, डिजिटल कार्यकर्ता और नागरिक समाज संगठन प्रस्तावित AI एक्ट की एक अलग महत्वपूर्ण आलोचना कर रहे हैं। नवंबर 2021 में ही 123 नागरिक समाज संगठनों ने ‘EU आर्टिफिशियल इंटेलिजेंस एक्ट फॉर फंडामेंटल राइट्स’ शीर्षक के साथ एक बयान जारी किया।
बयान में घोषणा की गई कि, "हम विशेष रूप से मानते हैं कि AI सिस्टम शक्ति के संरचनात्मक असंतुलन को बढ़ाता है, जिसका नुकसान अक्सर समाज में सबसे अधिक हाशिए पर रहने वाले लोगों पर पड़ता है।"
बयान में, AI पर यूरोपीय संघ के कानून के लिए 9 लक्ष्यों की रूपरेखा दी गई। इसमें जोखिमों के विकसित होने के साथ साथ उन्हें अपडेट करने का आह्वान किया गया है। इसमें मौलिक अधिकारों के लिए खतरा पैदा करने वाली सभी AI प्रणालियों पर रोक लगाने का आह्वान किया गया है। इसके अलावा नागरिक समाज संगठनों ने AI सिस्टम संचालित करने वालों से जवाबदेही के लिये आह्वान किया, सुसंगत और सार्थक सार्वजनिक पारदर्शिता की आवश्यकता को भी रेखांकित किया।
बयान के समापन में इस बात पर ज़ोर दिया गया कि AI को महिलाओं, कट्टरपंथियों, प्रवासियों, एलजीबीटीक्यू+ लोगों, विकलांग व्यक्तियों, सेक्स कर्मियों और श्रमिक वर्ग समुदायों आदि सहित सभी हाशिए के लोगों के लिए काम करना चाहिए; इस बात पर ज़ोर भी दिया गया कि AI तकनीक पर अमीरों और अभिजात वर्ग का एकाधिकार नहीं रहना चाहिए। नागरिक समाज तब से जन-केंद्रित AI की पैरवी कर रहा है और अब जब मसौदा नियमों पर सहमति हो गई है, ऐसे में अभियान का गति पकड़ना तय है।
भारत के लिए सीख
GPAI शिखर सम्मेलन में अपने उद्घाटन भाषण में, प्रधानमंत्री ने कहा कि भले ही AI, 21वीं सदी में विकास के लिए सबसे मजबूत उपकरण बनने की क्षमता रखता है, लेकिन यह उसके विनाश में भी महत्वपूर्ण भूमिका निभा सकता है। डीपफेक, साइबर सुरक्षा, डेटा चोरी और आतंकवादी संगठनों द्वारा AI उपकरणों पर हाथ डालने की चुनौतियों की ओर इशारा करते हुए प्रधानमंत्री मोदी ने जवाबी उपायों की आवश्यकता पर ज़ोर दिया। उन्होंने AI के नैतिक उपयोग के लिए एक रूपरेखा बनाने पर ज़ोर दिया, जिसमें उच्च जोखिम वाले या सीमांत AI उपकरणों का परीक्षण और विकास शामिल है। प्रधानमंत्री ने दृढ़ विश्वास, प्रतिबद्धता, समन्वय और सहयोग की आवश्यकता पर ज़ोर देते हुए पूरी दुनिया से इस दिशा में एक क्षण भी बर्बाद न करने का आह्वान किया।
प्रधानमंत्री ने कहा, “हमें वैश्विक ढांचे को एक निश्चित समय सीमा के भीतर पूरा करना होगा। मानवता की रक्षा के लिए ऐसा करना बहुत ज़रूरी है।”
हालांकि, सोशल मीडिया कंपनियों के साथ बैठक के बाद केंद्रीय सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने कहा कि सरकार जल्द ही डीपफेक के ख़िलाफ़ नए नियम लाएगी। लेकिन उन्होंने अन्य साइबर अपराधों के लिए AI के दुरुपयोग को रोकने के लिए किसी व्यापक कानून की बात ही नहीं की।
उम्मीद की जाती है कि EU आर्टिफिशियल इंटेलिजेंस एक्ट भारत में भी एक व्यापक कानून के लिए एक बेहतर संदर्भ बिंदु के रूप में काम करेगा।
अपने टेलीग्राम ऐप पर जनवादी नज़रिये से ताज़ा ख़बरें, समसामयिक मामलों की चर्चा और विश्लेषण, प्रतिरोध, आंदोलन और अन्य विश्लेषणात्मक वीडियो प्राप्त करें। न्यूज़क्लिक के टेलीग्राम चैनल की सदस्यता लें और हमारी वेबसाइट पर प्रकाशित हर न्यूज़ स्टोरी का रीयल-टाइम अपडेट प्राप्त करें।