Surma Vältimiseks Peab Inimkond Lukustama Tehisintellekti - Alternatiivne Vaade

Sisukord:

Surma Vältimiseks Peab Inimkond Lukustama Tehisintellekti - Alternatiivne Vaade
Surma Vältimiseks Peab Inimkond Lukustama Tehisintellekti - Alternatiivne Vaade

Video: Surma Vältimiseks Peab Inimkond Lukustama Tehisintellekti - Alternatiivne Vaade

Video: Surma Vältimiseks Peab Inimkond Lukustama Tehisintellekti - Alternatiivne Vaade
Video: GANGSTAR VEGAS (KÕIK GANGSTA KUNI ...) 2024, Mai
Anonim

Inimrassi olemasolu ähvardavad ülitäpsed arvutid või robotid on ulme lemmik süžee. Teadlaste sõnul saab sellist viimsepäeva stsenaariumi tõkestada ainult tehisintellekti (AI) sisaldava virtuaalse "vangla" loomisega. Ja see tuleb ära teha enne, kui ta õpib ennast teadvustama ja paremaks muutma.

Kui lasta see džinn pudelist välja, siis oraaklist, mis meie probleeme lahendab, võib see muutuda apokalüptiliseks ohuks, - ütles Louisville'i (Kentucky) ülikooli teadlane Roman Yampolsky, kes töötab arvutiteaduse alal. AI sisaldamise tingimused tuleb hoolikalt kavandada, et see ei pääseks ohtude, altkäemaksu, kiusatuste ega arvuti häkkimise kaudu.

"Ta suudab leiutada mitmeid viise mõjutamiseks, keeruka sotsiaal-tehnilise kombinatsiooni väntamiseks ja olemasolevate riistvarakomponentide kasutamiseks eesmärkidel, mida me isegi ei suuda ette kujutada," usub Yampolsky. - Sellisel tarkvaral on piiramatud võimalused arvutite ja võrkude nakatamiseks. AI võib leida viise inimese psüühika mõjutamiseks, altkäemaksu võtmiseks või sellega kokkupuutuvate inimeste väljapressimiseks."

Uue teadusliku uurimistöö valdkonna tekkimine, mis tegeleb tehisintellekti jaoks "vangla" loomise probleemiga, pakub täiendavaid eeliseid. Need uuringud on arvutiturbe ja krüptograafia parandamiseks väga kasulikud, on Yampolsky kindel. Tema ettepanekuid kirjeldati üksikasjalikult ajakirja Journal of Consciousness Studies märtsikuises numbris.

Kuidas Skyneti jaoks lõksu üles seada

Alustuseks võite tehisintellekti ümbritseda "virtuaalse masinaga". Laske sellel töötada tavalise opsüsteemi piires - piirates AI-i juurdepääsu hostarvuti tarkvarale ja riistvarale, muutub see palju kahjutumaks. Igatahes ei saa nutikas AI oma inimlikele toetajatele salajasi sõnumeid saata, pekstes jahutusventilaatoritega maha Morse-koodi.

Tehisintellekti paigutamine arvutisse, millel pole Interneti-ühendust, on hea viis hävitada AI salakavalad plaanid kaitsta Maad teie ja minu eest. Mis tahes muu tõrke korral saavad teadlased AI-mõtteprotsessi alati aeglustada, aeglustades arvuti töötlemiskiirust, vajutades regulaarselt nuppu "Lähtesta" või ühendades AI toiteallikast lahti.

Reklaamvideo:

Need turvameetmed on ette nähtud väga intelligentsete ja ohtlike arvutiviirustega toimetulemiseks, kuid kui tõhusad need tegelikult osutuvad, on keegi arvata.

Catch-22 (ameerika kirjaniku J. Helleri romaan; u. Mixednews) seisneb selles, et enne AI väljatöötamist ei saa me oma ideid täismahus katsetada. Kuid selleks, et muuta AI ohutuks, on vaja välja töötada sobivate meetmete komplekt, ütles Yampolsky. "Parim võimalus on seada AI-süsteemide kasutamisele piiranguid ja seejärel vajadusel neid muuta vastavalt AI suurenevatele võimalustele."

Image
Image

Teadlane Roman Yampolsky soovitas kasutada märki "@" või muid märke, mida tänapäeval kasutatakse kiirguse või bioloogilise ohu tähistamiseks, et näidata tehisintellektiga seotud ohu olemasolu.

Ärge kunagi pange sõidukile inimese turvatöötajat

Turvamehega pealtnäha süütu vestluse ajal ei takista miski AI-l kasutamast psühholoogilisi tehnikaid nagu sõprus või väljapressimine. Inimest saab altkäemaksu anda, lubades talle täiuslikku tervist, surematust või isegi lubaduse naasta sugulased ja sõbrad teisest maailmast. Või saavutage ohtudega midagi.

Kõige kindlam viis AI-ga suhelda on see, kui ta saab konkreetse teadusliku või tehnilise probleemi lahendamisel valida vastuse paljude saadaolevate võimaluste seast, selgitab Yampolsky. See aitab hoida ülitarka oraakli lühikese jalutusrihma peal.

Paljud teadlased usuvad, et hoolimata kõigist ettevaatusabinõudest ei tööta AI nutikassi määramatuks ajaks lukustamine. Singulaarsuse instituudi teadlase Eliezer Yudkowsky viimane katse tehisintellekti loomise kohta näitas, et isegi inimlik intelligentsus võib inimest petta ja "vanglast" põgeneda.

Sellegipoolest nõuab Yampolsky, et AI oleks rangelt eraldatud - see on siiski parem kui sellest loobumine ja täielik vabadus. Kuid kui AI areng jõuab punktini, kus see võib manipuleerida alateadvuse (tuleviku ennustamisega), telepaatia või telekineesi kasutava inimesega, on tagajärjed ettearvamatud.

"Kui selline AI parandab enesetunnet ja saavutab inimese intelligentsuse võimeid märkimisväärselt ületava taseme, ei saa tagajärgi isegi ette kujutada," hoiatab Yampolsky.

Soovitatav: