Lahingurobotid Tulevad! - Alternatiivvaade

Lahingurobotid Tulevad! - Alternatiivvaade
Lahingurobotid Tulevad! - Alternatiivvaade

Video: Lahingurobotid Tulevad! - Alternatiivvaade

Video: Lahingurobotid Tulevad! - Alternatiivvaade
Video: Robolahing 2017 20. mail AHHAA keskuses 2024, Mai
Anonim

Eksperdid ütlevad, et maailma armee arsenali võivad aasta pärast ilmuda tõelised mõrvarobotid, kes täidavad seda ülesannet järeleandmatult ja ei vaja inimese järelevalvet. Siin ohtu ette nähes arutavad eksperdid, kas mõrvarobotid ja nende kasutamine lahinguväljal tuleks eelnevalt keelata.

Image
Image

Mõrvarobotid võivad sõjaväes aasta pärast teenistuses olla, kui ÜRO ei võta nende kasutamise piiramiseks ette meetmeid, ütleb Sheffieldi ülikooli professor Noel Sharkey. Tema arvates põhjustavad need masinad paratamatult massilisi süütuid surmajuhtumeid, kuna need ei suuda eristada sõjaväelast tsiviilelanikust võitluseta inimesest. Tema avaldus tuli just sel ajal, kui 120 riigi ekspertkogukond arutab Genfis autonoomsete relvasüsteemide toimimisega seotud võimalikke riske. Professor Sharkey usub: arutelusid on vähe, on kiiresti vaja vastu võtta robotite tootmise piiramise dokument! Vastasel juhul ujutavad robotid aasta hiljem arenenud riikide armeed sõna otseses mõttes üle.

Image
Image

Nendel päevadel arutavad Genfis enam kui 90 maailma riigi esindajad ohtu, mis tuleneb "surmavatest autonoomsetest relvasüsteemidest". Üks oluline arutelu küsimus on, kuidas tagada nende kasutamise ohutus lahinguolukorras? Paljud eksperdid, sealhulgas professor Sharkey, rõhutavad, et vaatamata süsteemide autonoomiale peab inimesel olema pidevalt võimalus nende üle "põhimõtteliselt kontrollida" - inimkonna turvalisuse huvides. "Robot ei suuda ikka veel otsuseid langetada nagu inimene," ütleb professor Sharkey. - Ta ei ole täielikult võimeline. vaenuloogika mõistmiseks ei pruugi liitlast vaenlasest eristada ja otsustada teatud toimingute lubatavuse üle. "Me ei saa lasta robotil otsustada, kas näiteks Osama bin Ladeni elu on seda väärt, nii et koos temaga sureb 50 vana naist ja 20 last,Sharkey ütleb. - Robotil pole vahet. Põhimõttelised otsused, näiteks eesmärgi valiku kohta, peab tegema inimene. " Professor Sharkey sõnul on sellised otsused robotite hooleks jäetud, " nende kasutamise tagajärjed mitte vähem laastavad kui keemiarelvade kasutamine ".

Image
Image

Professor Sharkey on üks 57 eksperdist, kes allkirjastasid Lõuna-Korea ülikoolile adresseeritud avatud kirja, milles eksperdid protestivad intelligentsete relvade arendamise programmi vastu. Korea teaduse ja kõrgtehnoloogia instituut Kaist käivitab praegu programmi koos sõjatehnika tootja Hanwa Systemsiga ning uudised on teadusringkondi raputanud. "Ülikool, teadusasutus, ei saa seda teha moraalsest vaatenurgast," ütleb professor Sharkey, kellega teised allakirjutanud on täiesti nõus.

Ekspertide sõnul avavad automaatsed mõrvarobotid Pandora kasti, muutes sõjatee revolutsiooniliselt.

Reklaamvideo:

Kaisti instituudi esindajad on avalikule kirjale juba vastanud, kinnitades kolleegidele, et neil pole kavas Skyneti stiilis droide luua.

Image
Image

Keisti instituudi esindajad kinnitasid oma kolleegidele, et akadeemilise asutusena „hindavad nad kõrgelt universaalseid eetika- ja moraalinorme” ega kavatse arendada robotite sõdureid, kes tegutsevad väljaspool inimeste kontrolli. Siiani tegeleb Kaisti instituut selles valdkonnas ainult uurimistööga. Selle peale rahunesid avatud kirja autorid ega boikoteerinud oma kolleege. Siiski on endiselt lahtine küsimus, kas inimkond suudab kokku leppida lahingurobotite tegevuse täieliku kontrolli üldistes põhimõtetes. Vahepeal pole see teoreetiliselt sugugi oluline. Tänapäeval on ülimalt funktsionaalsed robotid juba nii keerukad mehhanismid, et isegi spetsialistid ei saa täielikult aru, kuidas nende tehisintellekt töötab. Ja seda täielikult mõistmata pole nad võimelised ennustamamillal täpselt see võib ebaõnnestuda. "Kui inimkond on määratud hävitama, siis tõenäoliselt mängib tehisintellekt selles protsessis olulist rolli," ütleb üks Genfis toimunud konverentsil osalejatest. Elon Muski sõnul kätkeb tehisintellekt tänapäeval inimkonda rohkem kui Põhja-Korea. Musk on veendunud, et robotid peaksid olema inimeste pideva range kontrolli all, ja on korduvalt pöördunud eri riikide valitsuste poole, et nad töötaksid välja selged reeglid tehisintellektiga süsteemide kontrollimiseks.kui Põhja-Korea. Musk on veendunud, et robotid peavad olema inimeste pideva range kontrolli all, ning on korduvalt pöördunud eri riikide valitsuste poole, et nad töötaksid välja selged reeglid tehisintellektiga süsteemide kontrollimiseks.kui Põhja-Korea. Musk on veendunud, et robotid peaksid olema inimeste pideva range kontrolli all, ja on korduvalt pöördunud eri riikide valitsuste poole, et nad töötaksid välja selged reeglid tehisintellektiga süsteemide kontrollimiseks.

Varvara Ljutova

Soovitatav: