"Peame Nüüd Mõtlema, Kuidas Tehisintellekti Kindlustada" - Alternatiivne Vaade

"Peame Nüüd Mõtlema, Kuidas Tehisintellekti Kindlustada" - Alternatiivne Vaade
"Peame Nüüd Mõtlema, Kuidas Tehisintellekti Kindlustada" - Alternatiivne Vaade

Video: "Peame Nüüd Mõtlema, Kuidas Tehisintellekti Kindlustada" - Alternatiivne Vaade

Video:
Video: Wealth and Power in America: Social Class, Income Distribution, Finance and the American Dream 2024, Oktoober
Anonim

Stephen Hawking jätkab tehisintellekti (AI) vastast "ristisõda".

Ülimalt oodatud kampaania Ask me Everything on Reddit ajal kirjutas ta, et AI turvaprotokolli väljatöötamisega tuleks tööd teha nüüd, mitte kauges tulevikus.

"Meie eesmärk ei peaks olema abstraktse tehisintellekti loomine, vaid kasuliku luure loomine," kirjutas kuulus füüsik. "Selle väljamõtlemiseks kulub aastakümneid, nii et alustame selle teema uurimist nüüd, mitte õhtul enne esimest. edasijõudnud AI”.

Hawking on kuulsust AI ohutusliikumise toetuseks kasutanud alates 2014. aastast, mil ta koos teiste teadlastega juhtkirja kirjutas, hoiatades eksistentsiaalse ohu eest, mida arenenud masinad inimkonnale kujutavad.

Hawkinguga on ühinenud ka teised märkimisväärsed tehnilised isiksused: Elon Musk ja Steve Wozniak. Varem kirjutasid kõik kolm sellele alla avatud kirjale, milles kutsuti üles keelama autonoomsed relvad või lahingurobotid.

Ootused, et inimkond loob varsti tehisintellekti, on eksisteerinud alates 50ndatest ega ole veel end õigustanud. Enamik AI teadlasi usub aga, et masinad, mis on intelligentsusega inimestega võrdsed, ilmuvad sellel sajandil.

Image
Image

Foto: ANDREW COWIE / AFP

Reklaamvideo:

Hawking hoiatab, et tehisintellekti kujutamine ulmefilmides moonutab masinate reaalset ohtu. Filmid nagu Terminaator kujutavad deemonlikke tapmisroboteid, kes üritavad inimkonda hävitada põhjustel, mida tegelikul tehisintellektil polnud. Need hõlbustavad ka võimaliku AI riski leevendamist (näiteks küborgide mitteehitamine).

„AI tegelik oht pole mitte see, et see oleks kuri, vaid see, et ta oleks väga võimekas. Kunstlik superintelligents on oma ülesannete täitmisel väga hea.

Kui tema ülesanded ei kattu meie omadega, on meil probleeme, - kirjutas Hawking, - te vaevalt sipelgate sipelgaid, kuid kui vastutate rohelise energia projekti eest ja ala, kus sipelgapesa asub, tuleb üle ujutada, on sipelgad õnneks väljas. Ärgem lubage inimkonnal leida end nende sipelgate olukorrast."

AI filosoof Nick Bostrom fantaseerib maailmalõpu stsenaariumide üle, kui programm hakkab vales suunas tööle. Näiteks on tehisintellektile pandud ülesandeks töötada välja keskkonna kaitsmise kava ja ökoloogiaprobleemi lahendamiseks otsustab ta inimkonna hävitada.

Elon Musk on juba eraldanud AI turbeuuringutele 10 miljonit dollarit, et takistada Skyneti-suguse hävitava tehisintellekti ilmumist Terminatorisse. Kuid Hawking soovib, et inimesed muudaksid oma üldist ettekujutust AI-st.

"Palun rääkige oma õpilastel, et nad mõtleksid mitte ainult selle üle, kuidas luua AI, vaid ka kuidas tagada selle kasutamine otstarbekatel eesmärkidel," rääkis Hawking tehisintellekti loenguid pidavale õpetajale. "Inimesi ületava AI tekkimine saab kas inimkonna ajaloo parim või halvim sündmus. Seetõttu on oluline, et kõik läheks nii nagu peab."

Soovitatav: