नीति निर्माता एआई को विनियमित करना चाहते हैं लेकिन इस पर आम सहमति की कमी है कि कैसे

टिप्पणी: नीति निर्माताओं द्वारा एआई को “दुनिया बदलने वाला” माना जाता है, लेकिन यह स्पष्ट नहीं है कि सकारात्मक परिणाम कैसे सुनिश्चित किए जाएं।

डेटा.जेपीजी

छवि: आईस्टॉक / मेटामोरवर्क्स

एक नए के अनुसार क्लिफर्ड चांस सर्वे संयुक्त राज्य अमेरिका, ब्रिटेन, जर्मनी और फ्रांस के 1,000 तकनीकी नीति विशेषज्ञों में से, नीति निर्माता इसके प्रभाव के बारे में चिंतित हैं कृत्रिम होशियारी, लेकिन शायद लगभग पर्याप्त नहीं है। हालांकि नीति निर्माताओं को साइबर सुरक्षा के बारे में चिंता है, लेकिन निकट-अवधि, स्पष्ट खतरों पर ध्यान केंद्रित करना शायद बहुत आसान है, जबकि एआई के दीर्घकालिक, स्पष्ट-बिल्कुल खतरों को नजरअंदाज नहीं किया जाता है।

या, बल्कि, अनदेखा नहीं किया गया है, लेकिन एआई के साथ उभरते मुद्दों से कैसे निपटा जाए, इस पर कोई सहमति नहीं है।

देख: आर्टिफिशियल इंटेलिजेंस नैतिकता नीति (टेक रिपब्लिक प्रीमियम)

एआई समस्याएं

जब YouGov ने क्लिफोर्ड चांस की ओर से तकनीकी नीति विशेषज्ञों का सर्वेक्षण किया और विनियमन के लिए प्राथमिकता वाले क्षेत्रों से पूछा (“आप किस हद तक सोचते हैं कि निम्नलिखित मुद्दों को नए कानून या विनियमन के लिए प्राथमिकता दी जानी चाहिए?”), एआई और एल्गोरिथम पूर्वाग्रह का नैतिक उपयोग अच्छी तरह से नीचे है। अन्य मुद्दों से चोंच आदेश:

  • 94%—साइबर सुरक्षा
  • 92%—डेटा गोपनीयता, डेटा सुरक्षा और डेटा साझाकरण
  • 90%—यौन शोषण और नाबालिगों का शोषण
  • 86%—गलत सूचना / दुष्प्रचार
  • 81%—कर अंशदान
  • 78%—कृत्रिम बुद्धि का नैतिक उपयोग
  • 78%—बच्चों के लिए सुरक्षित स्थान बनाना
  • 76%—ऑनलाइन बोलने की स्वतंत्रता
  • 75%—प्रौद्योगिकी कंपनियों के बीच उचित प्रतिस्पर्धा
  • 71%—एल्गोरिदमिक पूर्वाग्रह और पारदर्शिता
  • 70%-सामग्री मॉडरेशन
  • 70%—अल्पसंख्यकों और वंचितों के साथ व्यवहार
  • 65%-भावनात्मक भलाई
  • 65%—उपयोगकर्ताओं की भावनात्मक और मनोवैज्ञानिक भलाई
  • 62% – गिग इकॉनमी वर्कर्स का उपचार
  • 53%—खुद को नुकसान पहुंचाना

विनियमन के लिए सर्वोच्च प्राथमिकता के रूप में केवल 23% दर एल्गोरिथम पूर्वाग्रह, और 33% एआई के नैतिक उपयोग को रेट करते हैं। शायद यह कोई बड़ी बात नहीं है, सिवाय इसके कि AI (या, अधिक सटीक रूप से, मशीन लर्निंग) डेटा गोपनीयता और गलत सूचना जैसी उच्च-रैंक वाली प्राथमिकताओं में अपना रास्ता खोज लेता है। वास्तव में, यह इन क्षेत्रों में समस्याओं के लिए प्राथमिक उत्प्रेरक है, परिष्कृत साइबर सुरक्षा खतरों के पीछे “दिमाग” का उल्लेख नहीं करना।

इसके अलावा, जैसा कि रिपोर्ट के लेखक संक्षेप में कहते हैं, “जबकि कृत्रिम बुद्धिमत्ता को समाज और अर्थव्यवस्था के लिए एक संभावित शुद्ध अच्छा माना जाता है, एक चिंता है कि यह मौजूदा असमानताओं को दूर करेगा, इससे बड़े व्यवसायों को लाभ होगा (एआई से 78 प्रतिशत सकारात्मक प्रभाव) युवा (42% सकारात्मक प्रभावी) या अल्पसंख्यक समूहों (23% सकारात्मक प्रभाव) से। यह एआई/एमएल का कपटी पक्ष है, और कुछ ऐसा है जो मैंने किया है पर प्रकाश डाला इससे पहले। के रूप में विस्तृत एनाकोंडा स्टेट ऑफ डाटा साइंस 2021 रिपोर्ट, आज एआई के साथ डेटा वैज्ञानिकों की सबसे बड़ी चिंता एल्गोरिदम में पूर्वाग्रह की संभावना, यहां तक ​​कि संभावना है। इस तरह की चिंता अच्छी तरह से स्थापित है, लेकिन इसे अनदेखा करना आसान है। आखिरकार, इससे दूर देखना मुश्किल है अरबों व्यक्तिगत रिकॉर्ड जिनका उल्लंघन किया गया है.

लेकिन थोड़ा एआई/एमएल पूर्वाग्रह जो चुपचाप गारंटी देता है कि आवेदन के एक निश्चित वर्ग को नौकरी नहीं मिलेगी? यह चूकना आसान है।

देख: ओपन सोर्स पावर एआई, फिर भी नीति निर्माताओं ने नोटिस नहीं किया (टेक रिपब्लिक)

लेकिन, यकीनन, एक बहुत बड़ा सौदा, क्योंकि साइबर सुरक्षा में सुधार के लिए नीति निर्माता विनियमन के माध्यम से वास्तव में क्या करेंगे? पिछली बार मैंने जाँच की, हैकर्स कॉर्पोरेट डेटाबेस में सेंध लगाने के लिए सभी प्रकार के कानूनों का उल्लंघन करते हैं। क्या कोई दूसरा कानून इसे बदलेगा? या डेटा गोपनीयता के बारे में कैसे? क्या हम “कुकीज़ स्वीकार करने के लिए यहां क्लिक करें” का एक और जीडीपीआर बोनस प्राप्त करने जा रहे हैं ताकि आप वास्तव में वह कर सकें जो आप इस साइट पर करने की उम्मीद कर रहे थे” गैर-विकल्प? ऐसे नियम किसी की मदद करते नहीं दिख रहे हैं। (और, हाँ, मुझे पता है कि यूरोपीय नियामकों को वास्तव में दोष नहीं देना है: यह डेटा की भूखी वेबसाइटें हैं जिनसे बदबू आती है।)

जीडीपीआर की बात करें तो, आश्चर्यचकित न हों कि, सर्वेक्षण के अनुसार, नीति निर्माताओं को एआई के आसपास बढ़ी हुई परिचालन आवश्यकताओं के विचार पसंद हैं, जैसे कि हर बार जब वे एआई सिस्टम (82% समर्थन) के साथ बातचीत करते हैं, तो उपयोगकर्ताओं की अनिवार्य अधिसूचना। अगर यह जीडीपीआर जैसा लगता है, तो यह है। और अगर जिस तरह से हम एआई/पूर्वाग्रह के नैतिक उपयोग के साथ संभावित समस्याओं से निपटने जा रहे हैं, वह अधिक भ्रमित सहमति पॉप-अप के माध्यम से है, तो हमें विकल्पों पर विचार करने की आवश्यकता है। अभी।

सर्वेक्षण के 83 प्रतिशत उत्तरदाताओं ने एआई को “दुनिया बदल रहा है” माना है, लेकिन किसी को भी यह नहीं पता है कि इसे कैसे सुरक्षित बनाया जाए। जैसा कि रिपोर्ट का निष्कर्ष है, “एआई-विशिष्ट और गैर-एआई-विशिष्ट बाध्यकारी नियमों, अभ्यास के गैर-बाध्यकारी कोड और नियामक मार्गदर्शन के सेट के मिश्रण के साथ एआई के लिए नियामक परिदृश्य धीरे-धीरे उभरेगा। जैसे ही और टुकड़े जोड़े जाते हैं। पहेली के लिए, विभिन्न निकायों द्वारा उत्पन्न नियमों के कई समान या अतिव्यापी सेट के साथ, भौगोलिक विखंडन और भगोड़ा नियामक हाइपरइन्फ्लेशन दोनों का जोखिम है।”

प्रकटीकरण: मैं MongoDB के लिए काम करता हूं, लेकिन यहां व्यक्त विचार मेरे हैं.

और देखें

Leave a Reply

Your email address will not be published.

%d bloggers like this: