मेसिन किलरको भूत जारी छ। राष्ट्रपति पुटिन के मा विश्वास गर्छन्?
प्रविधिको

मेसिन किलरको भूत जारी छ। राष्ट्रपति पुटिन के मा विश्वास गर्छन्?

सैन्य रोबोटका समर्थकहरू (१) तर्क गर्छन् कि स्वचालित हतियारहरूले मानव जीवनको सुरक्षाको लागि थप विकल्पहरू प्रदान गर्दछ। मेशिनहरू सिपाहीहरू भन्दा शत्रुको नजिक पुग्न सक्षम छन्, र सही रूपमा खतरा मूल्याङ्कन। र भावनाहरूले कहिलेकाहीं सही निर्णयहरू गर्ने क्षमतालाई पक्षाघात गर्दछ।

हत्यारा रोबोटहरू प्रयोग गर्ने धेरै अधिवक्ताहरू दृढ विश्वास गर्छन् कि उनीहरूले युद्धहरूलाई कम रक्तपातपूर्ण बनाउनेछन् किनभने थोरै सिपाहीहरू मर्नेछन्। तिनीहरूले नोट गर्छन् कि रोबोटहरू, दया नमान्दा, नकारात्मक मानव भावनाहरू जस्तै आतंक, क्रोध, र बदलाको लागि प्रतिरक्षा छन्, जसले प्रायः युद्ध अपराधहरू निम्त्याउँछ।

मानवअधिकार कार्यकर्ताहरूले यो तर्क पनि प्रयोग गर्छन् कि सेनाले विगत आधा शताब्दीमा नागरिक हताहतमा ठूलो कमी ल्याएको छ, र सेनाको रोबोटाइजेसनले युद्धका कानूनहरूलाई अझ कडाइका साथ लागू गर्ने संयन्त्रको लागि अनुमति दिन्छ। तिनीहरू दावी गर्छन् कि मेशिनहरू नैतिक हुनेछन् जब तिनीहरू सफ्टवेयरसँग सुसज्जित हुन्छन् जसले तिनीहरूलाई युद्धको नियमहरू पालन गर्न बाध्य पार्छ।

निस्सन्देह, धेरै प्रसिद्ध व्यक्तिहरू सहित, धेरै मानिसहरूले यो विचार वर्षौंसम्म साझा गर्दैनन्। अप्रिल 2013 मा, एक अन्तर्राष्ट्रिय अभियान नारा (2) अन्तर्गत शुरू भयो। यसको ढाँचा भित्र, गैर-सरकारी संस्थाहरूले स्वायत्त हतियारहरूको प्रयोगमा पूर्ण प्रतिबन्ध लगाउन माग गर्छन्। सन् २०१४ को मे महिनामा जेनेभामा भएको संयुक्त राष्ट्रसंघीय निशस्त्रीकरण सम्मेलनमा धेरै देशका विज्ञहरू पहिलो पटक यस विषयमा छलफल गर्न बसेका थिए। ह्युमन राइट्स वाच र हार्वर्ड युनिभर्सिटीका वैज्ञानिकहरूले केही महिनापछि प्रकाशित गरेको एउटा रिपोर्टले भन्यो कि स्वायत्त व्यक्तिहरू धेरै खतरनाक हुनेछन् - तिनीहरूले आफ्नै लक्ष्य छनौट गरे र मानिसहरूलाई मारे। एकै समयमा, यो धेरै स्पष्ट छैन कि को जवाफदेही हुनुपर्छ।

2. कार्यको भागको रूपमा प्रदर्शन "हत्यारा रोबोटहरू रोक्नुहोस्"

साना ड्रोनहरूको झुण्डले के गर्न सक्छ

किलर रोबोट (ROU) को वरिपरि विवादहरू वर्षौंदेखि चलिरहेको छ र हट्दैन। हालैका महिनाहरूले सैन्य रोबोटहरू रोक्न नयाँ प्रयासहरू ल्याएका छन् र यस प्रकारका नयाँ परियोजनाहरूको रिपोर्टहरूको लहर ल्याएका छन्, जसमध्ये केही वास्तविक लडाई परिस्थितिहरूमा पनि परीक्षण भइरहेका छन्।

नोभेम्बर 2017 मा, एक भिडियो देखाउँदै मिनी ड्रोनहरूको घातक झुण्ड ., डरलाग्दो कार्यमा। दर्शकहरूले देखेका छन् कि हामीलाई अब ठूलो युद्ध मेसिनहरू, ट्याङ्कहरू, वा प्रिडेटरहरूद्वारा फ्याँकिएका रकेटहरू सामूहिक रूपमा र मेसिन गनहरू प्रयोग गर्न आवश्यक छैन। बर्कलेमा आर्टिफिसियल इन्टेलिजेन्सका प्रोफेसर, प्रमुख निर्देशक स्टुअर्ट रसेल भन्छन्:

-

पछिल्लो वसन्त पचास प्रोफेसर विश्वका अग्रणी विश्वविद्यालयहरूले कोरिया इन्स्टिच्युट अफ एडभान्स्ड साइंस एण्ड टेक्नोलोजी (KAIST) र यसको साझेदार हान्वा सिस्टम्सलाई एउटा अपीलमा हस्ताक्षर गरेका छन्। उनीहरूले विश्वविद्यालयलाई सहयोग नगर्ने र KAIST पाहुनाहरूको आयोजना गर्ने घोषणा गरे। कारण दुवै संस्थाहरु द्वारा गरिएको "स्वायत्त हतियार" को निर्माण थियो। केआईएसटीले मिडिया रिपोर्टलाई अस्वीकार गर्यो।

त्यसको केही समयपछि अमेरिकामा 3 भन्दा बढी Google कर्मचारीहरू सेनाको लागि कम्पनीको कामको विरोधमा। तिनीहरू चिन्तित थिए कि Google ले सैन्य ड्रोन भिडियोहरूमा वस्तुहरू र अनुहारहरू पहिचान गर्न AI प्रयोग गर्ने उद्देश्य माभेन नामको सरकारी परियोजनासँग साझेदारी गरिरहेको थियो। कम्पनीको व्यवस्थापनले माभेनको लक्ष्य जीवन बचाउने र मानिसहरूलाई थकाइलाग्दो कामबाट बचाउने हो, आक्रामकता होइन। आन्दोलनकारीहरु विश्वस्त भएनन् ।

युद्धको अर्को भाग घोषणा थियो कृत्रिम बुद्धिमत्ता विशेषज्ञहरू, सहित। गुगल प्रोजेक्टमा काम गर्दै र इलोना मुस्का। तिनीहरूले रोबोट विकास नगर्ने वाचा गर्छन्। उनीहरूले यी हतियारहरूलाई नियमन र सीमित गर्न प्रयासहरू बढाउन सरकारहरूलाई पनि आह्वान गर्छन्।

बयानमा भनिएको छ, आंशिक रूपमा, "मानवको जीवन लिने निर्णय कहिल्यै मेसिनले लिनु हुँदैन।" यद्यपि विश्वका सेनाहरू धेरै स्वचालित यन्त्रहरूसँग सुसज्जित छन्, कहिलेकाहीँ उच्च स्तरको स्वायत्तताको साथ, धेरै विशेषज्ञहरू डराउँछन् कि भविष्यमा यो प्रविधि पूर्ण रूपमा स्वायत्त हुन सक्छ, जसले मानव अपरेटर र कमाण्डरको संलग्नता बिना हत्या गर्न अनुमति दिन्छ।

विज्ञहरूले यो पनि चेतावनी दिन्छन् कि स्वायत्त मार्ने मेसिनहरू "आणविक, रासायनिक र जैविक हतियारहरू" भन्दा पनि खतरनाक हुन सक्छ किनभने तिनीहरू सजिलै नियन्त्रण बाहिर सर्पिल गर्न सक्छन्। गत वर्ष जुलाईमा फ्युचर अफ लाइफ इन्स्टिच्युट (एफजीआई) को आयोजनामा ​​भएको पत्रमा १ सय ७० संस्था र २ हजार ४ सय ६४ व्यक्तिले हस्ताक्षर गरेका थिए । 170 को प्रारम्भिक महिनाहरूमा, FLI- सम्बद्ध चिकित्सा वैज्ञानिकहरूको समूहले कृत्रिम बुद्धिमत्ता (AI) नियन्त्रित हतियारहरूको विकासमा प्रतिबन्ध लगाउने नयाँ पत्रको लागि फेरि आह्वान गर्‍यो।

सैन्य "हत्यारा रोबोट" को सम्भावित कानुनी नियमन मा Gniewo मा गत वर्ष अगस्ट संयुक्त राष्ट्र बैठक सफलता ... मेशिन मा समाप्त भयो। संयुक्त राज्य अमेरिका, रूस र इजरायल लगायतका देशहरूको समूहले यी हतियारहरूमा अन्तर्राष्ट्रिय प्रतिबन्ध (निश्चित परम्परागत हतियारहरूको प्रयोगको निषेध वा प्रतिबन्धको मस्यौदा महासन्धि, CCW) को परिचयमा थप काम अवरुद्ध गर्यो। यो कुनै संयोग होइन कि यी देशहरू स्वायत्त र रोबोटिक हतियारहरूको उन्नत प्रणालीहरूमा कामका लागि परिचित छन्।

रसिया लडाई रोबोटहरूमा केन्द्रित छ

राष्ट्रपति भ्लादिमिर पुटिनलाई प्राय: सैन्य एआई प्रणाली र लडाई रोबोटहरूको बारेमा यसो भनिएको छ:

-.

स्वायत्त हतियारको विकासको बारेमा खुलेर कुरा गर्छ। यसको सशस्त्र सेनाका जनरल स्टाफका प्रमुख जनरल भ्यालेरी गेरासिमोभले हालै सैन्य समाचार एजेन्सी इन्टरफ्याक्स-एभिएनलाई भने कि रोबोटको प्रयोग भविष्यका युद्धहरूको मुख्य विशेषताहरू मध्ये एक हुनेछ। रुसले प्रयास गरिरहेको उनले बताए युद्धको मैदानलाई पूर्ण रूपमा स्वचालित गर्नुहोस्। यस्तै टिप्पणी उपप्रधानमन्त्री दिमित्री रोगोजिन र रक्षा मन्त्री सर्गेई शोइगुले गरेका थिए। रक्षा र सुरक्षा महासंघ काउन्सिल समितिका अध्यक्ष भिक्टर बोनडारेभले रुस विकासको लागि प्रयासरत रहेको बताए रोजु टेक्नोलोजीहरूयसले ड्रोन नेटवर्कहरूलाई एकल इकाईको रूपमा काम गर्न अनुमति दिनेछ।

यो अचम्मको कुरा होइन यदि हामी सम्झन्छौं कि पहिलो टेलिट्याङ्कहरू सोभियत संघमा 30 को दशकमा विकसित भएको थियो। तिनीहरू दोस्रो विश्वयुद्धको सुरुमा प्रयोग भएका थिए। आज रूसले पनि सिर्जना गरिरहेको छ टैंक रोबोट अधिक र अधिक स्वायत्त हुनुहोस्।

पुटिनको राज्यले हालै सिरियामा आफ्नै पठाएको छ मानवरहित लडाकु वाहन उरान-९ (३)। यन्त्रले ग्राउन्ड कन्ट्रोल पोइन्टहरूसँग सम्पर्क गुमाएको छ, निलम्बन प्रणालीमा समस्याहरू थिए, र यसको हतियारहरूले पूर्ण रूपमा काम गरेनन् र गतिशील लक्ष्यहरूमा हिट गरेनन्। यो धेरै गम्भीर लाग्दैन, तर धेरैले सिरियाली वाइपलाई राम्रो लडाई परीक्षण मान्छन् जसले रूसीहरूलाई मेसिन सुधार गर्न अनुमति दिनेछ।

Roscosmos ले यस वर्ष अगस्ट सम्ममा अन्तर्राष्ट्रिय अन्तरिक्ष स्टेशनमा दुई रोबोट पठाउने प्रारम्भिक योजनालाई अनुमोदन गरेको छ। फेडर (4) मानवरहित संघमा। लोड जस्तो होइन, तर। चलचित्र रोबोकपमा जस्तै, फेडरले हतियार चलाउँछ र शूटिंग अभ्यासको क्रममा घातक निशानेबाजी प्रदर्शन गर्दछ।

प्रश्न छ, अन्तरिक्षमा रोबोट किन सशस्त्र हुनेछ? मामिला जग्गा आवेदनमा मात्रै नभएको आशंका छ । यसैबीच, पृथ्वीमा, रूसी हतियार निर्माता कलाश्निकोभले एक दृश्य देखायो रोबोट इगोरेकजुन, यद्यपि यसले धेरै हाँसो निम्त्यायो, संकेत गर्दछ कि कम्पनीले स्वायत्त लडाई वाहनहरूमा गम्भीर रूपमा काम गरिरहेको छ। जुलाई 2018 मा, कलाश्निकोभले घोषणा गरे कि उसले एउटा हतियार बनाउँदैछ जुन उसले "गोली मार्ने वा नचल्ने" निर्णय गर्न प्रयोग गर्दछ।

यस जानकारीको लागि रूसी बन्दूक दिग्त्यारेभले सानो विकास गरेको रिपोर्टहरू थप्नु पर्छ स्वायत्त टैंक Nerekht जो चुपचाप आफ्नै लक्ष्य तिर जान सक्छ र त्यसपछि अन्य वा सम्पूर्ण भवनहरू ध्वस्त पार्न शक्तिशाली बलको साथ विस्फोट गर्न सक्छ। साथै टैंक T14 सेना , रूसी सशस्त्र सेना को गर्व, सम्भावित रिमोट कन्ट्रोल र मानवरहित ड्राइभिङ को लागी डिजाइन गरिएको थियो। रुसी सैन्य इन्जिनियरहरूले T-14 लाई पूर्ण रूपमा स्वायत्त सशस्त्र वाहन बनाउन काम गरिरहेको स्पुतनिकको दाबी छ।

आपत्ति निर्देशन

अमेरिकी सेनाले नै आफ्नो हतियारको स्वायत्तताको स्तरमा स्पष्ट सीमा तोकेको छ। 2012 मा, अमेरिकी रक्षा विभागले निर्देशन 3000.09 जारी गर्‍यो, जसले बताउँछ कि मानिसहरूलाई सशस्त्र रोबोटको कार्यमा आपत्ति जनाउने अधिकार हुनुपर्छ। (यद्यपि त्यहाँ केहि अपवाद हुन सक्छ)। यो निर्देशन यथावत छ । पेन्टागनको हालको नीति भनेको हतियारको प्रयोगमा निर्णायक कारक सधैं एक व्यक्ति हुनुपर्छ, र त्यस्तो निर्णय हुनुपर्छ। युद्धको कानून अनुरूप.

यद्यपि अमेरिकीहरूले दशकौंदेखि उडान, प्रिडेटर, रिपर र अन्य धेरै सुपरमेसिनहरू प्रयोग गर्दै आएका छन्, तिनीहरू स्वायत्त मोडेलहरू थिएनन् र होइनन्। तिनीहरू टाढाबाट अपरेटरहरू द्वारा नियन्त्रण गरिन्छ, कहिलेकाहीँ धेरै हजार किलोमिटरको दूरीबाट। प्रोटोटाइप को प्रिमियर संग यस प्रकार को मिसिन को स्वायत्तता को बारे मा एक तातो छलफल सुरु भयो। ड्रोन X-47B (5), जसले स्वतन्त्र रूपमा उडान मात्र गर्दैन, तर विमान वाहकबाट उडान भर्न, त्यसमा अवतरण गर्न र हावामा इन्धन भर्न पनि सक्छ। यसको अर्थ मानव हस्तक्षेप बिना गोली वा बम प्रहार गर्नु पनि हो। तर, परियोजना अझै परीक्षण र समीक्षाको क्रममा छ।

5. अमेरिकी विमान वाहकमा मानवरहित X-47B को परीक्षण

2003 मा, रक्षा विभागले सानो ट्यांक जस्तो रोबोटको साथ प्रयोग गर्न थाल्यो। SPOES एक मेसिन गन संग सुसज्जित। सन् २००७ मा उनलाई इराक पठाइएको थियो । यद्यपि, रोबोटले अनियमित व्यवहार गर्न थालेपछि राइफललाई अनियमित रूपमा सार्न थालेपछि कार्यक्रम समाप्त भयो। नतिजाको रूपमा, अमेरिकी सेनाले धेरै वर्षसम्म सशस्त्र ग्राउन्ड रोबोटहरूमा अनुसन्धान त्यागे।

उही समयमा, अमेरिकी सेनाले सन् २०१४ मा २० मिलियन डलरबाट सन् २०१८ मा १५ करोड ६० लाख डलर पुर्‍याएको छ। 20 मा, यो बजेट पहिले नै $ 2014 मिलियन पुगेको छ। यो केही वर्षमा 156% को संचयी वृद्धि हो। विज्ञहरूका अनुसार सन् २०२५ सम्ममा अमेरिकी सेनासँग युद्धभूमि हुनसक्छ मानिस भन्दा धेरै रोबोट सिपाही.

हालै, धेरै विवाद उत्पन्न भएको छ र अमेरिकी सेनाले घोषणा गरेको छ ATLAS परियोजना () - स्वचालित। मिडियामा, यसलाई माथि उल्लिखित निर्देशन 3000.09 को उल्लङ्घनको रूपमा मानिएको थियो। यद्यपि, अमेरिकी सेनाले अस्वीकार गर्दछ र आश्वासन दिन्छ कि निर्णय प्रक्रियाबाट व्यक्तिलाई बहिष्कार गर्ने प्रश्न बाहिर छ।

AI ले शार्क र नागरिकहरूलाई पहिचान गर्छ

यद्यपि, स्वायत्त हतियारका रक्षकहरूसँग नयाँ तर्कहरू छन्। प्रो. जर्जिया इन्स्टिच्युट अफ टेक्नोलोजीका रोबोटिस्ट रोनाल्ड अर्किनले आफ्नो प्रकाशनमा भनेका छन् आधुनिक युद्धमा, बौद्धिक हतियारहरू नागरिक हताहतबाट बच्न आवश्यक छन्, किनकि मेसिन लर्निङ प्रविधिहरूले लडाकू र नागरिकहरू, र महत्त्वपूर्ण र महत्वहीन लक्ष्यहरू बीचको भिन्नतालाई प्रभावकारी रूपमा मद्दत गर्न सक्छ।

यस्तो AI कौशल को एक उदाहरण अष्ट्रेलियाली समुद्र तटहरु गस्ती छ। ड्रोन सानो रिपरयुनिभर्सिटी अफ टेक्नोलोजी सिड्नीद्वारा विकसित शार्कस्पोटर प्रणालीसँग सुसज्जित। यो प्रणालीले स्वचालित रूपमा शार्कहरूको लागि पानी स्क्यान गर्दछ र अपरेटरलाई केहि असुरक्षित देख्दा अलर्ट गर्दछ। (६) यसले मानिस, डल्फिन, डुङ्गा, सर्फबोर्ड र पानीमा रहेका वस्तुहरूलाई शार्कबाट छुट्याउन सक्छ। यसले उच्च सटीकताका साथ लगभग सोह्र विभिन्न प्रजातिहरू पत्ता लगाउन र पहिचान गर्न सक्छ।

6. SharkSpotter प्रणालीमा मान्यता प्राप्त शार्कहरू

यी उन्नत मेसिन लर्निङ विधिहरूले 90% भन्दा बढीले हवाई रिकोनिसन्सको शुद्धता बढाउँछन्। तुलनाको लागि, समान स्थितिमा मानव अपरेटरले हवाई फोटोहरूमा 20-30% वस्तुहरू सही रूपमा पहिचान गर्दछ। थप रूपमा, पहिचान अझै पनि एक अलार्म अघि मानव द्वारा प्रमाणित छ।

रणभूमिमा, अपरेटर, स्क्रिनमा छवि देखेर, मुश्किलले निर्धारण गर्न सक्छ कि जमीनमा मानिसहरू एके-47 हरू हातमा लडाकुहरू छन् वा, उदाहरणका लागि, पाइकहरू भएका किसानहरू। Arkin नोट गर्दछ कि मानिसहरू "उनीहरूले के हेर्न चाहन्छन्" विशेष गरी तनावपूर्ण परिस्थितिहरूमा देख्छन्। यो प्रभावले 1987 मा USS Vincennes द्वारा एक इरानी विमान दुर्घटनावश डाउन गर्न योगदान पुर्‍यायो। निस्सन्देह, उनको विचारमा, एआई-नियन्त्रित हतियारहरू हालको "स्मार्ट बम" भन्दा राम्रो हुनेछ, जुन वास्तवमा संवेदनशील छैनन्। गत अगस्टमा, साउदी लेजर निर्देशित मिसाइलले यमनमा स्कूलका बालबालिकाले भरिएको बसलाई प्रहार गर्दा ४० बालबालिकाको मृत्यु भएको थियो।

"यदि स्कूल बसलाई ठीकसँग लेबल गरिएको छ भने, यसलाई स्वायत्त प्रणालीमा पहिचान गर्न तुलनात्मक रूपमा सजिलो हुन सक्छ," लोकप्रिय मेकानिक्समा अर्किनको तर्क छ।

यद्यपि, यी तर्कहरूले स्वचालित हत्याराहरू विरुद्ध अभियानकर्ताहरूलाई विश्वस्त पार्ने देखिँदैन। हत्यारा रोबोटको खतराको अतिरिक्त, अर्को महत्त्वपूर्ण परिस्थितिलाई ध्यानमा राख्नुपर्छ। एक "राम्रो" र "सचेत" प्रणाली पनि ह्याक गर्न सकिन्छ र धेरै खराब मानिसहरू द्वारा कब्जा गर्न सकिन्छ। त्यसपछि सैन्य उपकरण को रक्षा मा सबै तर्कहरु आफ्नो बल गुमाउँछन्।

एक टिप्पणी थप्न