© रॉयटर्स। FILE PHOTO: 4 मई, 2023 को लिए गए इस उदाहरण में ChatGPT लोगो और AI आर्टिफिशियल इंटेलिजेंस शब्द देखे जा सकते हैं। REUTERS/Dado रूविक/इलस्ट्रेशन
(मैसिमिलियानो की वर्तनी ठीक करने के लिए फ़ाइलें, पैरा 4)
मार्टिन कूल्टर और सुपंता मुखर्जी द्वारा
लंदन/स्टॉकहोम (रॉयटर्स) -चैटजीपीटी जैसी अधिक शक्तिशाली आर्टिफिशियल इंटेलिजेंस सेवाओं को विकसित करने की दौड़ तेज होने के कारण, कुछ नियामक एक ऐसी तकनीक को नियंत्रित करने के लिए पुराने कानूनों पर भरोसा कर रहे हैं जो समाजों और व्यवसायों के संचालन के तरीके को बदल सकती है।
यूरोपीय संघ नए एआई नियमों का मसौदा तैयार करने में सबसे आगे है, जो गोपनीयता और सुरक्षा चिंताओं को दूर करने के लिए वैश्विक बेंचमार्क सेट कर सकता है, जो ओपनएआई के चैटजीपीटी के पीछे जनरेटिव एआई तकनीक में तेजी से प्रगति के साथ उत्पन्न हुई हैं।
लेकिन इस कानून को लागू होने में कई साल लग जाएंगे।
कंसल्टेंसी बीआईपी में यूरोपीय डेटा गवर्नेंस विशेषज्ञ मैसिमिलियानो सिमनाघी ने कहा, “नियमों के अभाव में, सरकारें केवल मौजूदा नियमों को लागू कर सकती हैं।”
“यदि यह व्यक्तिगत डेटा की सुरक्षा के बारे में है, तो वे डेटा सुरक्षा कानूनों को लागू करते हैं, अगर यह लोगों की सुरक्षा के लिए खतरा है, ऐसे नियम हैं जिन्हें विशेष रूप से एआई के लिए परिभाषित नहीं किया गया है, लेकिन वे अभी भी लागू हैं।”
अप्रैल में, यूरोप के राष्ट्रीय गोपनीयता प्रहरी ने चैटजीपीटी के साथ मुद्दों को हल करने के लिए एक टास्क फोर्स का गठन किया था, जिसके बाद इतालवी नियामक गारेंटे ने सेवा को ऑफ़लाइन कर दिया था, जिसमें ओपनएआई पर यूरोपीय संघ के जीडीपीआर का उल्लंघन करने का आरोप लगाया गया था, जो कि 2018 में लागू एक व्यापक गोपनीयता व्यवस्था है।
चैटजीपीटी को अमेरिकी कंपनी द्वारा आयु सत्यापन सुविधाओं को स्थापित करने और यूरोपीय उपयोगकर्ताओं को एआई मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने से रोकने के लिए सहमत होने के बाद बहाल किया गया था।
गारेंटे के करीबी एक सूत्र ने रॉयटर्स को बताया कि एजेंसी अन्य जनरेटिव एआई टूल्स की अधिक व्यापक रूप से जांच शुरू करेगी। फ़्रांस और स्पेन में डेटा संरक्षण प्राधिकरणों ने भी अप्रैल में OpenAI के गोपनीयता कानूनों के अनुपालन की जांच शुरू की।
विशेषज्ञों को लाओ
जनरेटिव एआई मॉडल गलतियाँ करने, या “मतिभ्रम” करने के लिए जाने जाते हैं, जो अस्वाभाविक निश्चितता के साथ गलत सूचना फैलाते हैं।
ऐसी त्रुटियों के गंभीर परिणाम हो सकते हैं। यदि कोई बैंक या सरकारी विभाग एआई का उपयोग निर्णय लेने में तेजी लाने के लिए करता है, तो व्यक्तियों को ऋण या लाभ भुगतान के लिए गलत तरीके से खारिज किया जा सकता है। अल्फाबेट (NASDAQ 🙂 की Google और सहित बड़ी टेक कंपनियां माइक्रोसॉफ्ट कार्पोरेशन (NASDAQ 🙂 ने वित्तीय उत्पादों की तरह नैतिक रूप से पागल माने जाने वाले AI उत्पादों का उपयोग करना बंद कर दिया था।
संयुक्त राज्य अमेरिका और यूरोप के छह नियामकों और विशेषज्ञों के अनुसार, नियामकों का उद्देश्य कॉपीराइट और डेटा गोपनीयता से लेकर दो प्रमुख मुद्दों तक सभी को कवर करने वाले मौजूदा नियमों को लागू करना है: मॉडल में डाला गया डेटा और उनके द्वारा उत्पादित सामग्री।
व्हाइट हाउस के पूर्व प्रौद्योगिकी सलाहकार सुरेश वेंकटसुब्रमण्यन ने कहा, “दोनों क्षेत्रों में एजेंसियों को” उनके जनादेश की व्याख्या और पुनर्व्याख्या करने के लिए प्रोत्साहित किया जा रहा है। उन्होंने मौजूदा नियामक शक्तियों के तहत भेदभावपूर्ण प्रथाओं के लिए एल्गोरिदम की अमेरिकी संघीय व्यापार आयोग (एफटीसी) की जांच का हवाला दिया।
यूरोपीय संघ में, ब्लॉक के एआई अधिनियम के प्रस्ताव ओपनएआई जैसी कंपनियों को किसी भी कॉपीराइट सामग्री – जैसे कि किताबें या तस्वीरें – का खुलासा करने के लिए मजबूर करेंगे, जो उनके मॉडल को प्रशिक्षित करने के लिए उपयोग की जाती हैं, जिससे वे कानूनी चुनौतियों के प्रति संवेदनशील हो जाते हैं।
यूरोपीय संघ के प्रस्तावों का मसौदा तैयार करने में शामिल कई राजनेताओं में से एक, सर्गेई लागोडिंस्की के अनुसार कॉपीराइट उल्लंघन को साबित करना सीधा नहीं होगा।
“यह अपना खुद का लिखने से पहले सैकड़ों उपन्यास पढ़ने जैसा है,” उन्होंने कहा। “यदि आप वास्तव में किसी चीज़ की नकल करते हैं और उसे प्रकाशित करते हैं, तो यह एक बात है। लेकिन यदि आप सीधे किसी और की सामग्री की चोरी नहीं कर रहे हैं, तो इससे कोई फर्क नहीं पड़ता कि आपने खुद को किस पर प्रशिक्षित किया है।
‘रचनात्मक सोच’
फ्रांसीसी डेटा नियामक CNIL ने “रचनात्मक रूप से सोचना” शुरू कर दिया है कि AI पर मौजूदा कानून कैसे लागू हो सकते हैं, इसके प्रौद्योगिकी प्रमुख बर्ट्रेंड पेल्हेस के अनुसार।
उदाहरण के लिए, फ्रांस में भेदभाव के दावों को आमतौर पर डिफेंसुर डेस ड्रोइट्स (अधिकारों के रक्षक) द्वारा नियंत्रित किया जाता है। हालांकि, एआई पूर्वाग्रह में इसकी विशेषज्ञता की कमी ने सीएनआईएल को इस मुद्दे पर नेतृत्व करने के लिए प्रेरित किया, उन्होंने कहा।
“हम प्रभावों की पूरी श्रृंखला देख रहे हैं, हालांकि हमारा ध्यान डेटा सुरक्षा और गोपनीयता पर बना हुआ है,” उन्होंने रॉयटर्स को बताया।
संगठन जीडीपीआर के प्रावधान का उपयोग करने पर विचार कर रहा है जो व्यक्तियों को स्वचालित निर्णय लेने से बचाता है।
“इस स्तर पर, मैं यह नहीं कह सकता कि क्या यह कानूनी रूप से पर्याप्त है,” पैलेश ने कहा। “राय बनाने में कुछ समय लगेगा, और एक जोखिम है कि विभिन्न नियामक अलग-अलग विचार करेंगे।”
ब्रिटेन में, वित्तीय आचार प्राधिकरण कई राज्य नियामकों में से एक है जिसे एआई को कवर करने वाले नए दिशानिर्देश तैयार करने का काम सौंपा गया है। एक प्रवक्ता ने रॉयटर्स को बताया कि यह लंदन में एलन ट्यूरिंग इंस्टीट्यूट के साथ-साथ अन्य कानूनी और शैक्षणिक संस्थानों के साथ परामर्श कर रहा है, ताकि प्रौद्योगिकी की अपनी समझ में सुधार हो सके।
जबकि नियामक तकनीकी विकास की गति के अनुकूल होते हैं, कुछ उद्योग के अंदरूनी सूत्रों ने कॉर्पोरेट नेताओं के साथ अधिक जुड़ाव का आह्वान किया है।
कानूनी दस्तावेजों को संसाधित करने के लिए एआई का उपयोग करने वाले एक स्टार्टअप ल्यूमिनेंस के जनरल काउंसलर हैरी बोरोविक ने रॉयटर्स को बताया कि अब तक नियामकों और कंपनियों के बीच संवाद “सीमित” रहा है।
“यह भविष्य के संदर्भ में विशेष रूप से अच्छा नहीं है,” उन्होंने कहा। “नियामक उन दृष्टिकोणों को लागू करने के लिए या तो धीमे या अनिच्छुक प्रतीत होते हैं जो उपभोक्ता संरक्षण और व्यवसाय विकास के बीच सही संतुलन को सक्षम करेंगे।”