Google Ei Soovi ühel Päeval Skyneti Luua, Seega Loob See Lüliti AI - Alternatiivne Vaade

Google Ei Soovi ühel Päeval Skyneti Luua, Seega Loob See Lüliti AI - Alternatiivne Vaade
Google Ei Soovi ühel Päeval Skyneti Luua, Seega Loob See Lüliti AI - Alternatiivne Vaade

Video: Google Ei Soovi ühel Päeval Skyneti Luua, Seega Loob See Lüliti AI - Alternatiivne Vaade

Video: Google Ei Soovi ühel Päeval Skyneti Luua, Seega Loob See Lüliti AI - Alternatiivne Vaade
Video: The Terminator, SkyNet and Alexa: The Present and Future of A.I. | Marc Talluto | TEDxIWU 2024, Mai
Anonim

Tehisintellekti tulevikku käsitlevates küsimustes ja aruteludes on kaks peamist vastandlikku külge. Ühes nurgas on sellised ettevõtted nagu Google, Facebook, Amazon ja Microsoft, kes investeerivad agressiivselt tehnoloogiasse, et muuta AI-süsteemid nutikamaks, teises teises on aga meie aja suured mõtlejad, nagu Elon Musk ja Stephen Hawking, kes usuvad et AI areng sarnaneb "deemonilõksuga".

Üks arenenumaid AI-ettevõtteid, Google'ile kuuluv DeepMind, on loonud turvameetmed juhuks, kui inimene peab "võtma üle kontrolli roboti üle, mille rike võib põhjustada korvamatuid tagajärgi". Võib eeldada, et me räägime … "tappa kõik inimesed". Muidugi, tegelikkuses ei ole võetud meede vihje võimalikule apokalüpsisele, see puudutab pigem nutirobotitega seotud turvameetmeid, mis töötavad ja töötavad tulevikus ka erinevates tehastes ja tehastes.

Avaldatud retseptidega dokument on DeepMindi ja Oxfordi Inimkonna Tuleviku Instituudi ühine töö, mis nagu nimigi viitab, tegeleb teemadega, mis võimaldavad sellel väga inimkonnal tulevikus sisse pääseda. Instituudi asutajadirektor Nick Bostrom on aastakümnete jooksul väga ilmekalt rääkinud tehisintellekti arengu võimalikest ohtudest ja kirjutanud sel teemal mitu raamatut, milles ta arutas superintelligentsete robotite loomise tagajärgi.

Juhend, millest me täna räägime ja kannab nime “Turvaliselt puuetega esindajad”, uurib, kuidas keelata AI, kui see teeb midagi sellist, mida inimene ei soovi teha. Töö koosneb mitmesugustest arvutustest ja valemitest, millest 99 protsenti meist tõenäoliselt aru ei saa. Seetõttu räägime lihtsalt öeldes "punasest nupust", mis võib AI keelata.

Võite naerda ja imestada, kuid robootika pioneerid ja AI vaatavad samu sci-fi filme, mida meiegi. Need, milles robotid mõtlesid kord välja, kuidas sulgemiskäsku ignoreerida. Nüüd oleme selleks valmis. Avaldatud dokumendis kirjeldatakse meetodeid ja lahendusi, mis tagavad, et "koolitatav aine" (loe AI) ei saa õppida väliskeskkonna või inimese mõjusid eirama ega neid ennetama.

See võib tunduda ülepaisutamine, eriti kui arvestada, et praegu kõige arenenum AI on lauamängudes tegelikult ainult hea. Bostrom usub siiski, et enne kui alustame inimaju taseme AI loomist, tuleb võtta sobivad meetmed:

„Niipea, kui tehisintellekt jõuab inimese tasemeni, on paljudes valdkondades oodata järsku arenguhüpet. Peagi loovad AI-d ka ise uusi AI-sid. Hinnake lihtsalt neid väljavaateid ja samal ajal võimalikke ohte. Seetõttu on parem sellega üle pingutada, kui sellest ilma jääda."

NIKOLAY KHIZHNYAK

Reklaamvideo:

Soovitatav: