एआई बड़ी बंदूकें स्वायत्त "हत्यारा रोबोट" विकसित नहीं करने का वचन देते हैं

Anonim

एआई बड़ी बंदूकें स्वायत्त "हत्यारा रोबोट " विकसित नहीं करने का वचन देते हैं

रोबोटिक

माइकल इरविंग

25 जुलाई, 2018

एआई उद्योग से सैकड़ों कंपनियों और हजारों लोगों ने घातक स्वायत्त हथियारों को विकसित नहीं करने का वचन दिया है (क्रेडिट: chagpg / Depositphotos)

हत्यारा रोबोटों का विचार वर्तमान में विज्ञान कथा में क्षेत्र में बना हुआ है, लेकिन यह जानकर बहुत ही खतरनाक है कि कृत्रिम खुफिया विशेषज्ञ इसे निकट भविष्य में वास्तविक संभावना के रूप में देख रहे हैं। हथियारयुक्त एआई के खिलाफ कार्रवाई करने के लिए संयुक्त राष्ट्र की याचिका के वर्षों के बाद, फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) ने अब अपने हाथों में मामला लिया है, एआई उद्योग में हजारों शोधकर्ता, इंजीनियरों और कंपनियों ने विकास या समर्थन नहीं करने का वचन दिया है किसी भी तरह स्वायत्त हत्या मशीनों का विकास।

2015 में, एफएलआई ने संयुक्त राष्ट्र को एक खुला पत्र प्रस्तुत किया, संगठन को घातक स्वायत्त हथियार प्रणालियों (एलएडब्ल्यूएस) के विकास पर प्रतिबंध लगाने के लिए आग्रह किया। इस पत्र पर 1000 से अधिक रोबोटिक्स शोधकर्ताओं और एलोन मस्क और स्टीफन हॉकिंग जैसे प्रमुख वैज्ञानिकों द्वारा हस्ताक्षर किए गए थे। दो साल बाद, एफएलआई और एक ही हस्ताक्षरकर्ताओं ने एक फॉलो-अप भेजा, क्योंकि वार्ता लगातार बंद हो गई।

निष्क्रियता के एक और वर्ष के बाद, इन उद्योग के नेताओं ने अब एक और सीधा दृष्टिकोण लिया है जिसे संयुक्त राष्ट्र के इनपुट की आवश्यकता नहीं है। हजारों लोगों ने अब एक प्रतिज्ञा पर हस्ताक्षर किए हैं कि हम कहते हैं कि "हम अपने आप को उच्च मानक मानने का विकल्प चुनते हैं: हम न तो घातक स्वायत्त हथियारों के विकास, निर्माण, व्यापार या उपयोग का समर्थन करेंगे।"

इस बार हस्ताक्षरकर्ताओं में 160 एआई से संबंधित कंपनियों और संगठनों और 2, 400 से अधिक व्यक्ति शामिल हैं। रैंकों में से Google डीपमिंड, क्लीयरपाथ रोबोटिक्स, यूरोपीय संघ के लिए यूरोपीय संघ, एक्सपीआरईजेई फाउंडेशन, सिलिकॉन वैली रोबोटिक्स, यूनिवर्सिटी कॉलेज लंदन, और एलन मस्क जैसे लोग, Google रिसर्च के जेफरी डीन और यूके संसद सदस्य एलेक्स सोबेल के लोग हैं।

समूह का विरोध करने वाली विशिष्ट तकनीक में हथियारयुक्त एआई सिस्टम शामिल हैं जो पूरी तरह से स्वायत्तता से लोगों को पहचान, लक्षित और मार सकते हैं। इसमें सैन्य ड्रोन जैसी चीजें शामिल नहीं होंगी, जो मानव पायलट दूरस्थ रूप से लक्ष्य को पहचानने और मारने के लिए उपयोग कर सकते हैं। हालांकि यह बनाने के लिए एक अजीब भेद की तरह लग सकता है, समूह का तर्क है कि बाद के मामले में अभी भी एक मानव "लूप में " है, जो इस अधिनियम के लिए नैतिक और नैतिक फ़िल्टर है।

"हम अंडरसाइंड सहमत हैं कि मानव जीवन लेने का निर्णय किसी मशीन को कभी नहीं दिया जाना चाहिए, " आधिकारिक बयान पढ़ता है। "इस स्थिति के लिए एक नैतिक घटक है, कि हमें मशीनों को जीवन लेने के फैसले लेने की इजाजत नहीं देनी चाहिए जिसके लिए दूसरों - या कोई भी - अपराधी नहीं होगा। "

जब इन हत्या मशीनों को डेटा और निगरानी प्लेटफार्मों से जोड़ा जाता है, तो बयान जारी रहता है, कानून हिंसा और उत्पीड़न के शक्तिशाली साधन बन सकते हैं, अनिवार्य रूप से मानव जीवन को बहुत आसान, जोखिम मुक्त और गैर-जिम्मेदार बनाने का कार्य बनाते हैं। विशेष रूप से समस्याग्रस्त उन उपकरणों के लिए काले बाजार के माध्यम से गलत हाथों में पड़ने की क्षमता है।

ऐसा लगता है कि प्रतिज्ञा का उद्देश्य कंपनियों और लोगों को हस्ताक्षर करने में "शर्मनाक " है। यदि अधिक से अधिक बड़े खिलाड़ी ऑनबोर्ड पर कूद रहे हैं, तो वे जो भी साइन अप नहीं करेंगे, वे अपने साथियों और ग्राहकों द्वारा जांच के तहत आते हैं।

चाहे वह इस तरह से खेलता है या नहीं, यह कम से कम एक हत्यारा रोबोट मुक्त भविष्य के लक्ष्य के प्रति बच्चे के कदमों को देखने के लिए प्रोत्साहित कर रहा है। संयुक्त राष्ट्र अगस्त में LAWS पर अगली बैठक आयोजित करने के लिए तैयार है।

स्रोत: जीवन संस्थान का भविष्य

एआई उद्योग से सैकड़ों कंपनियों और हजारों लोगों ने घातक स्वायत्त हथियारों को विकसित नहीं करने का वचन दिया है (क्रेडिट: chagpg / Depositphotos)