मशीन किलरचे भूत सुरूच आहे. राष्ट्राध्यक्ष पुतिन कशावर विश्वास ठेवतात?
तंत्रज्ञान

मशीन किलरचे भूत सुरूच आहे. राष्ट्राध्यक्ष पुतिन कशावर विश्वास ठेवतात?

लष्करी यंत्रमानवांचे समर्थक (1) असा युक्तिवाद करतात की स्वयंचलित शस्त्रे मानवी जीवनाचे रक्षण करण्यासाठी अधिक पर्याय देतात. यंत्रे सैनिकांपेक्षा शत्रूच्या जवळ जाण्यास सक्षम आहेत आणि धोक्याचे अचूक मूल्यांकन करू शकतात. आणि भावना कधीकधी योग्य निर्णय घेण्याच्या क्षमतेला पंगू बनवतात.

किलर रोबोट्सच्या अनेक वकिलांना खात्री आहे की ते युद्ध कमी रक्तरंजित करतील कारण कमी सैनिक मरतील. ते लक्षात घेतात की यंत्रमानव, दया दाखवत नसताना, घाबरणे, राग आणि सूड यासारख्या नकारात्मक मानवी भावनांपासून प्रतिकारक असतात, ज्यामुळे अनेकदा युद्ध गुन्हे घडतात.

मानवाधिकार कार्यकर्ते असा युक्तिवाद देखील वापरतात की लष्करामुळे गेल्या अर्ध्या शतकात नागरिकांच्या मृत्यूमध्ये मोठी घट झाली आहे आणि सैन्याच्या रोबोटायझेशनमुळे युद्धाचे कायदे अधिक कठोरपणे अंमलात आणण्याची यंत्रणा निर्माण होऊ शकते. ते असा दावा करतात की जेव्हा मशीन्स सॉफ्टवेअरने सुसज्ज असतील तेव्हा ते नैतिक बनतील जे त्यांना युद्धाच्या नियमांचे पालन करण्यास भाग पाडतील.

अर्थात, खूप प्रसिद्ध लोकांसह, बर्याच लोकांना हे मत वर्षानुवर्षे सामायिक केले जात नाही. एप्रिल 2013 मध्ये, (2) या घोषणेखाली आंतरराष्ट्रीय मोहीम सुरू करण्यात आली. त्याच्या चौकटीत, गैर-सरकारी संघटना स्वायत्त शस्त्रांच्या वापरावर संपूर्ण बंदी घालण्याची मागणी करतात. मे 2014 मध्ये जिनिव्हा येथे झालेल्या संयुक्त राष्ट्रांच्या निःशस्त्रीकरण परिषदेत या विषयावर चर्चा करण्यासाठी अनेक देशांतील तज्ज्ञ प्रथम बसले. ह्युमन राइट्स वॉच आणि हार्वर्ड युनिव्हर्सिटीच्या शास्त्रज्ञांनी काही महिन्यांनंतर प्रकाशित केलेल्या अहवालात म्हटले आहे की स्वायत्त लोक खूप धोकादायक असतील - त्यांनी स्वतःचे लक्ष्य निवडले आणि लोकांना मारले. त्याच वेळी, कोणाला जबाबदार धरावे हे स्पष्ट नाही.

2. "किलर रोबोट थांबवा" या क्रियेचा भाग म्हणून प्रात्यक्षिक

लहान ड्रोनचा थवा काय करू शकतो

किलर रोबोट्स (ROU) बद्दलचे वाद वर्षानुवर्षे सुरू आहेत आणि ते दूर होत नाहीत. अलिकडच्या महिन्यांत लष्करी रोबोट्स थांबवण्याचे नवीन प्रयत्न आणि या प्रकारच्या नवीन प्रकल्पांच्या अहवालांची लाट आली आहे, ज्यापैकी काही वास्तविक लढाऊ परिस्थितीत देखील चाचणी केली जात आहेत.

नोव्हेंबर 2017 मध्ये, एक व्हिडिओ दर्शवित आहे मिनी ड्रोनचे प्राणघातक झुंड ., भयानक कारवाई मध्ये. प्रेक्षकांनी पाहिले आहे की आम्हाला यापुढे मोठ्या प्रमाणात आणि मशीन गनसह मारण्यासाठी शिकारींनी फेकलेल्या जड युद्ध मशीन, टाक्या किंवा रॉकेटची गरज नाही. मुख्य दिग्दर्शक स्टुअर्ट रसेल, बर्कले येथील कृत्रिम बुद्धिमत्तेचे प्राध्यापक, म्हणतात:

-

शेवटचा वसंत पन्नास प्राध्यापक जगातील आघाडीच्या विद्यापीठांनी कोरिया इन्स्टिट्यूट ऑफ अॅडव्हान्स्ड सायन्स अँड टेक्नॉलॉजी (KAIST) आणि त्याच्या भागीदार हानव्हा सिस्टीम्सच्या आवाहनावर स्वाक्षरी केली आहे. त्यांनी जाहीर केले की ते विद्यापीठाला सहकार्य करणार नाहीत आणि KAIST पाहुण्यांचे आयोजन करतील. कारण दोन्ही संस्थांनी केलेल्या "स्वायत्त शस्त्रास्त्रे" चे बांधकाम होते. KAIST ने मीडिया रिपोर्ट्सचे खंडन केले.

त्यानंतर लवकरच यू.एस 3 पेक्षा जास्त Google कर्मचारी लष्करासाठी कंपनीच्या कामाचा निषेध केला. त्यांना चिंता होती की Google मावेन नावाच्या सरकारी प्रकल्पासह भागीदारी करत आहे ज्याचा उद्देश लष्करी ड्रोन व्हिडिओंमध्ये वस्तू आणि चेहरे ओळखण्यासाठी AI वापरणे आहे. कंपनीच्या व्यवस्थापनाचे म्हणणे आहे की मावेनचे उद्दिष्ट जीव वाचवणे आणि लोकांना त्रासदायक कामापासून वाचवणे आहे, आक्रमकता नाही. आंदोलकांना ते पटले नाही.

लढाईचा पुढचा भाग म्हणजे घोषणा कृत्रिम बुद्धिमत्ता तज्ञ, समावेश Google प्रकल्पावर काम करत आहे आणि एलोना मस्का. ते रोबोट विकसित न करण्याचे वचन देतात. ते सरकारांना या शस्त्रांचे नियमन आणि मर्यादित करण्यासाठी प्रयत्न वाढवण्याचे आवाहन करतात.

निवेदनात असे म्हटले आहे की, "मानवी जीवन घेण्याचा निर्णय कधीही मशीनने घेऊ नये." जरी जगातील सैन्ये अनेक स्वयंचलित उपकरणांसह सुसज्ज आहेत, कधीकधी उच्च स्वायत्ततेसह, अनेक तज्ञांना भीती वाटते की भविष्यात हे तंत्रज्ञान पूर्णपणे स्वायत्त होऊ शकते, ज्यामुळे मानवी ऑपरेटर आणि कमांडरच्या कोणत्याही सहभागाशिवाय हत्या होऊ शकते.

तज्ज्ञांनी असेही चेतावणी दिली की स्वायत्त हत्या यंत्रे "अण्वस्त्र, रासायनिक आणि जैविक शस्त्रे" पेक्षा अधिक धोकादायक असू शकतात कारण ते सहजपणे नियंत्रणाबाहेर जाऊ शकतात. एकूण, गेल्या वर्षी जुलैमध्ये, फ्यूचर ऑफ लाइफ इन्स्टिट्यूट (FGI) च्या संयुक्त विद्यमाने पत्रावर 170 संस्था आणि 2464 व्यक्तींनी स्वाक्षरी केली होती. 2019 च्या सुरुवातीच्या महिन्यांत, FLI शी संलग्न वैद्यकीय शास्त्रज्ञांच्या गटाने पुन्हा कृत्रिम बुद्धिमत्ता (AI) नियंत्रित शस्त्रांच्या विकासावर बंदी घालण्यासाठी नवीन पत्र मागवले.

लष्करी "किलर रोबोट्स" च्या संभाव्य कायदेशीर नियमनावर Gniewo येथे गेल्या वर्षी ऑगस्टमध्ये UN बैठक यशस्वी झाली ... मशीन. युनायटेड स्टेट्स, रशिया आणि इस्रायलसह देशांच्या गटाने या शस्त्रांवर आंतरराष्ट्रीय बंदी लागू करण्यावर पुढील काम अवरोधित केले (काही पारंपारिक शस्त्रे वापरण्याच्या प्रतिबंध किंवा प्रतिबंधावरील मसुदा करार, CCW). स्वायत्त आणि रोबोटिक शस्त्रास्त्रांच्या प्रगत प्रणालींवरील कार्यासाठी हे देश ओळखले जातात हा योगायोग नाही.

रशियाने लढाऊ रोबोट्सवर भर दिला आहे

राष्ट्राध्यक्ष व्लादिमीर पुतिन यांनी अनेकदा लष्करी एआय प्रणाली आणि लढाऊ यंत्रमानव यांविषयी उद्धृत केले आहे:

-.

स्वायत्त शस्त्रांच्या विकासाबद्दल खुलेपणाने बोलतो. त्याच्या सशस्त्र दलाच्या जनरल स्टाफचे प्रमुख, जनरल व्हॅलेरी गेरासिमोव्ह यांनी अलीकडेच लष्करी वृत्तसंस्था इंटरफॅक्स-एव्हीएनला सांगितले की रोबोटचा वापर भविष्यातील युद्धांच्या मुख्य वैशिष्ट्यांपैकी एक असेल. ते पुढे म्हणाले की रशिया प्रयत्न करत आहे रणांगण पूर्णपणे स्वयंचलित करा. उपपंतप्रधान दिमित्री रोगोझिन आणि संरक्षण मंत्री सर्गेई शोइगु यांनीही अशीच प्रतिक्रिया दिली होती. संरक्षण आणि सुरक्षा फेडरेशन कौन्सिल समितीचे अध्यक्ष व्हिक्टर बोंडारेव्ह म्हणाले की रशिया विकसित करण्यासाठी प्रयत्नशील आहे रोजू तंत्रज्ञानहे ड्रोन नेटवर्कला एकल घटक म्हणून कार्य करण्यास अनुमती देईल.

30 च्या दशकात सोव्हिएत युनियनमध्ये पहिले टेलिटँक विकसित केले गेले हे आपल्याला आठवत असेल तर हे आश्चर्यकारक नाही. ते द्वितीय विश्वयुद्धाच्या सुरूवातीस वापरले गेले. आज रशियाही निर्माण करत आहे टाकी रोबोट अधिकाधिक स्वायत्त व्हा.

पुतिनच्या राज्याने अलीकडेच सीरियाला स्वतःचे पाठवले मानवरहित लढाऊ वाहन उरण-9 (3). डिव्हाइसचा ग्राउंड कंट्रोल पॉईंटशी संपर्क तुटला, सस्पेंशन सिस्टममध्ये समस्या होत्या आणि त्याची शस्त्रे अचूकपणे कार्य करत नाहीत आणि हलत्या लक्ष्यांना मारत नाहीत. हे फार गंभीर वाटत नाही, परंतु बरेच लोक सीरियन वाइपला एक चांगली लढाऊ चाचणी मानतात ज्यामुळे रशियन मशीन सुधारू शकतील.

Roscosmos ने या वर्षी ऑगस्टपर्यंत आंतरराष्ट्रीय अंतराळ स्थानकावर दोन रोबोट पाठवण्याच्या प्राथमिक योजनेला मंजुरी दिली आहे. Fedor (4) मानवरहित युनियनमध्ये. लोड सारखे नाही, पण. रोबोकॉप या चित्रपटाप्रमाणे, फेडर एक शस्त्र चालवतो आणि शूटिंग व्यायामादरम्यान प्राणघातक निशानेबाजीचे प्रदर्शन करतो.

प्रश्न असा आहे की अंतराळातील रोबोट सशस्त्र का असेल? हे प्रकरण केवळ ग्राउंड अॅप्लिकेशन्समध्ये नसल्याचा संशय आहे. दरम्यान, पृथ्वीवर, रशियन शस्त्रास्त्र निर्माता कलाश्निकोव्हने एक दृश्य दाखवले गुलाम इगोरेकज्यामुळे, जरी खूप हशा झाला, तरीही कंपनी स्वायत्त लढाऊ वाहनांवर गंभीरपणे काम करत असल्याचे संकेत देते. जुलै 2018 मध्ये, कलाश्निकोव्हने घोषणा केली की तो एक शस्त्र बनवत आहे ज्याचा वापर तो “शूट किंवा शूट नॉट” निर्णय घेण्यासाठी करतो.

या माहितीमध्ये रशियन गनस्मिथ दिग्त्यारेव्हने एक लहान विकसित केल्याचा अहवाल जोडला पाहिजे स्वायत्त टाकी Nerekht जे शांतपणे स्वतःच्या लक्ष्याकडे जाऊ शकते आणि नंतर इतर किंवा संपूर्ण इमारती नष्ट करण्यासाठी शक्तिशाली शक्तीने विस्फोट करू शकते. तसेच टाकी T14 Armata , रशियन सशस्त्र दलांचा अभिमान, संभाव्य रिमोट कंट्रोल आणि मानवरहित ड्रायव्हिंगसाठी डिझाइन केले होते. स्पुतनिकचा दावा आहे की रशियन लष्करी अभियंते T-14 पूर्णपणे स्वायत्त आर्मर्ड वाहन बनवण्यासाठी काम करत आहेत.

आक्षेप निर्देश

अमेरिकन सैन्याने स्वतः त्यांच्या शस्त्रांच्या स्वायत्ततेच्या पातळीवर एक स्पष्ट मर्यादा लादली आहे. 2012 मध्ये, यूएस डिपार्टमेंट ऑफ डिफेन्सने डायरेक्टिव्ह 3000.09 जारी केले, ज्यामध्ये असे म्हटले आहे की सशस्त्र रोबोटच्या कृतींवर आक्षेप घेण्याचा अधिकार मानवांना असावा. (जरी काही अपवाद असू शकतात). हा निर्देश कायम आहे. पेंटागॉनचे सध्याचे धोरण असे आहे की शस्त्रास्त्रांच्या वापरामध्ये निर्णायक घटक नेहमीच एक व्यक्ती असावा आणि असा निर्णय असावा. युद्धाच्या कायद्यांचे पालन करते.

अमेरिकन अनेक दशकांपासून फ्लाइंग, प्रीडेटर, रीपर आणि इतर अनेक सुपरमशीन्स वापरत असले तरी ते स्वायत्त मॉडेल नव्हते आणि नाहीत. ते ऑपरेटरद्वारे दूरस्थपणे नियंत्रित केले जातात, कधीकधी कित्येक हजार किलोमीटरच्या अंतरावरून. या प्रकारच्या मशीनच्या स्वायत्ततेबद्दल एक गरम चर्चा प्रोटोटाइपच्या प्रीमियरसह सुरू झाली. X-47B ड्रोन (5), जे केवळ स्वतंत्रपणे उड्डाण केले नाही तर विमानवाहू जहाजावरून उड्डाण करू शकते, त्यावर उतरू शकते आणि हवेत इंधन भरू शकते. मानवी हस्तक्षेपाशिवाय गोळीबार करणे किंवा बॉम्बस्फोट करणे असाही अर्थ आहे. तथापि, प्रकल्प अद्याप चाचणी आणि पुनरावलोकनाच्या अधीन आहे.

5. अमेरिकन विमानवाहू जहाजावर मानवरहित X-47B चाचण्या

2003 मध्ये, संरक्षण विभागाने लहान टाकीसारख्या रोबोटचा प्रयोग सुरू केला. SPOES मशीन गनसह सुसज्ज. 2007 मध्ये त्याला इराकमध्ये पाठवण्यात आले. तथापि, यंत्रमानव अनियमितपणे वागू लागल्याने, त्याची रायफल अनियंत्रितपणे हलविल्यानंतर कार्यक्रम संपला. परिणामी, अमेरिकन सैन्याने अनेक वर्षे सशस्त्र ग्राउंड रोबोट्सवरील संशोधन सोडून दिले.

त्याच वेळी, यूएस आर्मीने 20 मधील $2014 दशलक्ष वरून 156 मध्ये $2018 दशलक्ष पर्यंत आपला खर्च वाढवला आहे. 2019 मध्ये, हे बजेट आधीच $327 दशलक्षवर पोहोचले आहे. ही काही वर्षांमध्ये 1823% ची एकत्रित वाढ आहे. तज्ज्ञांचे म्हणणे आहे की 2025 च्या सुरुवातीला अमेरिकेच्या सैन्याकडे युद्धभूमी असू शकते मनुष्यांपेक्षा अधिक रोबोट सैनिक.

अलीकडे अमेरिकेच्या लष्कराने केलेल्या घोषणांवर बराच वाद निर्माण झाला आहे ATLAS प्रकल्प () - स्वयंचलित. मीडियामध्ये, हे उपरोक्त निर्देश 3000.09 चे उल्लंघन मानले गेले. तथापि, अमेरिकन सैन्याने नाकारले आणि आश्वासन दिले की निर्णय घेण्याच्या चक्रातून एखाद्या व्यक्तीला वगळण्याचा प्रश्नच नाही.

AI शार्क आणि नागरीकांना ओळखते

तथापि, स्वायत्त शस्त्रांच्या रक्षकांकडे नवीन युक्तिवाद आहेत. प्रा. जॉर्जिया इन्स्टिट्यूट ऑफ टेक्नॉलॉजीचे रोबोटिस्ट रोनाल्ड आर्किन यांनी त्यांच्या प्रकाशनांमध्ये असे म्हटले आहे आधुनिक युद्धात, नागरी जीवितहानी टाळण्यासाठी बुद्धिमान शस्त्रे आवश्यक आहेत, कारण मशीन लर्निंग तंत्रे लढाऊ आणि नागरिक आणि महत्त्वाचे आणि बिनमहत्त्वाचे लक्ष्य यांच्यातील फरक प्रभावीपणे मदत करू शकतात.

ऑस्ट्रेलियन समुद्रकिनाऱ्यांवर गस्त घालणे हे अशा AI कौशल्याचे उदाहरण आहे. ड्रोन लिटल रिपरयुनिव्हर्सिटी ऑफ टेक्नॉलॉजी सिडनीने विकसित केलेल्या शार्कस्पॉटर प्रणालीसह सुसज्ज. ही प्रणाली शार्कसाठी आपोआप पाणी स्कॅन करते आणि ऑपरेटरला काहीतरी असुरक्षित दिसल्यावर त्याला सतर्क करते. (6) ते शार्कपासून वेगळे करण्यासाठी लोक, डॉल्फिन, बोटी, सर्फबोर्ड आणि पाण्यातील वस्तू ओळखू शकतात. हे उच्च अचूकतेसह सुमारे सोळा वेगवेगळ्या प्रजाती शोधू आणि ओळखू शकते.

6. शार्कस्पॉटर प्रणालीमध्ये ओळखले जाणारे शार्क

या प्रगत मशीन लर्निंग पद्धतींमुळे एरियल टोपणनाची अचूकता 90% पेक्षा जास्त वाढते. तुलनेसाठी, तत्सम परिस्थितीत एक मानवी ऑपरेटर हवाई छायाचित्रांमधील 20-30% वस्तू अचूकपणे ओळखतो. याव्यतिरिक्त, अलार्मच्या आधी एखाद्या व्यक्तीद्वारे ओळख सत्यापित केली जाते.

रणांगणावर, ऑपरेटर, स्क्रीनवरील प्रतिमा पाहून, जमिनीवर असलेले लोक त्यांच्या हातात एके-47 असलेले लढाऊ आहेत की नाही, उदाहरणार्थ, पाईक असलेले शेतकरी हे क्वचितच ठरवू शकतात. आर्किन नोंदवतात की लोक "त्यांना काय पहायचे आहे ते पहा," विशेषतः तणावपूर्ण परिस्थितीत. या परिणामामुळे 1987 मध्ये यूएसएस व्हिन्सेनेसने इराणी विमान अपघाती पाडले. अर्थात, त्याच्या मते, एआय-नियंत्रित शस्त्रे सध्याच्या "स्मार्ट बॉम्ब" पेक्षा चांगली असतील, जे खरोखर संवेदनशील नाहीत. गेल्या ऑगस्टमध्ये येमेनमध्ये सौदीच्या लेझर-गाइडेड क्षेपणास्त्राने शाळकरी मुलांनी भरलेल्या बसला धडक दिली आणि चाळीस मुलांचा मृत्यू झाला.

“जर शाळेच्या बसला योग्यरित्या लेबल लावले असेल, तर ती स्वायत्त प्रणालीमध्ये ओळखणे तुलनेने सोपे असू शकते,” पॉप्युलर मेकॅनिक्समधील अर्किन म्हणतात.

तथापि, हे युक्तिवाद स्वयंचलित मारेकऱ्यांविरुद्ध प्रचारकांना पटतील असे वाटत नाही. किलर रोबोट्सच्या धमकीव्यतिरिक्त, आणखी एक महत्त्वाची परिस्थिती लक्षात घेतली पाहिजे. अगदी "चांगली" आणि "सजग" प्रणाली हॅक केली जाऊ शकते आणि खूप वाईट लोक ताब्यात घेऊ शकतात. मग लष्करी उपकरणांच्या बचावातील सर्व युक्तिवाद त्यांची शक्ती गमावतात.

एक टिप्पणी जोडा