Kas "Robootika Kolm Seadust" Kaitsevad Meid? - Alternatiivne Vaade

Sisukord:

Kas "Robootika Kolm Seadust" Kaitsevad Meid? - Alternatiivne Vaade
Kas "Robootika Kolm Seadust" Kaitsevad Meid? - Alternatiivne Vaade

Video: Kas "Robootika Kolm Seadust" Kaitsevad Meid? - Alternatiivne Vaade

Video: Kas
Video: Jaak Juske Riigikogu tööst 2024, Aprill
Anonim

On möödunud 50 aastat sellest, kui Isaac Asimov esitas oma kuulsa robootika kolm seadust - reeglistiku, mida iga endast lugupidav robot peab järgima. Ehkki algselt oli see vaid kirjanduslik seade, sai neist kolmest seadusest algne retsept "robotokalüpsise" vältimiseks. Õnneks on eksperte, kes otsivad kindlust, kas Azimovi garantiid on ajaproovile vastu pidanud. Kahjuks ütlevad nad kõik ei.

Alustuseks meenutame neid samu kolme seadust:

Robot ei saa inimest kahjustada ega oma tegevusetuse tõttu lubada inimesele kahju teha.

Robot peab järgima kõiki inimese korraldusi, välja arvatud juhul, kui need korraldused on vastuolus esimese seadusega.

Robot peab hoolitsema oma turvalisuse eest niivõrd, kuivõrd see ei ole vastuolus esimese ja teise seadusega.

Hiljem lisas Azimov neljanda ehk nullseaduse, mis eelistas teistele prioriteedi osas:

Reklaamvideo:

0. Robot ei saa inimest kahjustada, kui ta ei suuda tõestada, et see on lõppkokkuvõttes kasulik kogu inimkonnale.

Image
Image

Asimovi fantaasiamaailmas pidid peaaegu kõik robotid neid seadusi järgima. Need polnud lihtsalt ettepanekud ega juhised - seadused olid tarkvarasse sisse ehitatud. Lisaks ei saa neist reeglitest mööda hiilida, neid ümber kirjutada ega muuta.

Nagu Asimov ise näitas, viisid nende seaduste puudused, lüngad ja ebamäärasused sageli robotite kummalise ja ebaloogilise käitumiseni. Seadused olid liiga ebamäärased ja sageli ei õnnestunud määratleda ja eristada "inimest" "robotitest". Lisaks võiksid robotid tahtmatult seadusi rikkuda, kui täielik teave poleks neile kättesaadav. Samuti pidi liiga kaval robot või tehisintellekt olema survestatud, et mitte oma tuuma ümber programmeerida.

Aasta on 2014 ja suur osa meie elust eelmise sajandi fantaasiatesse võib tunduda otsekui fantaasia. Paljud inimesed arvasid, et Asimovi seadused oleks pidanud jääma kirjanduslikuks seadmeks. Kuid Azimov ise märkis 1981. aastal, et tema seadused võivad töötada. Arvuta! ta märkis järgmist:

“Kui keegi küsib minult, mis tunne oleks, kui minu kolme robootikaseadust kasutataks tegelikult robotite käitumise määratlemiseks, on vastus valmis. Eeldusel muidugi, et robotid on piisavalt paindlikud ja mitmekülgsed, et erinevat käitumist näidata. Minu vastus on jah, need kolm seadust on ainsad, kuidas inimesed saavad robotitega suhelda - või millegi muuga.

Peaaegu kolmkümmend aastat hiljem oleme jõudnud lähemale reaalsusele, kus meil on robotid - või õigemini tehisintellekt, mis neid kontrollib -, paindlikud ja mitmekülgsed erinevateks käitumiskursusteks. Jääb ainult aja küsimus: kui masin ületab inimese kõigis aspektides, alates füüsilisest tugevusest ja lõpetades kujutlusvõimega.

Hirmutav on see, et eksimisruumi praktiliselt pole. Kui tehislik superintelligentsus on inimeste jaoks halvasti programmeeritud või ükskõikne, viib see katastroofini. Peame veenduma, et tehisintellekt on ohutu, kui tahame selle tekkimist üle elada."

Vastake küsimusele "kas Azimovi kolm seadust saavad aidata?" Üle võtsid kaks tehisintellekti teoreetikut: Ben Herzel (Aidyia Holdings) ja Louis Inteli, masinluure uurimisinstituudi (MIRI) asedirektor ja ajakirja Rockstar Research tegevtoimetaja. Pärast nendega vesteldes selgus, et Asimovi seadused üldiselt ei saa neile pandud ülesandega hakkama ja kui peame looma turvalise AI, peame välja töötama midagi täiesti teistsugust.

Asimi tulevik?

Image
Image

Vestlus Herzeli ja Helmiga algas sellest, milles Asimov ei eksinud, ennustas tulevikku ja kus ta eksis.

"Ma arvan, et seda tüüpi robotid, mida Asimov ette kujutas, on võimalikud mitte liiga kauges tulevikus," vastab Herzel. - Siiski eeldas kirjanik enamikus oma väljamõeldud maailmades, et humanoidrobotid oleksid robootika ja tehisintellekti inseneritegevuse tipus. See on ebatõenäoline. Üsna varsti, pärast Azimovi robotite staatuse saavutamist, tehakse kättesaadavaks ka kunstliku superluure ja superrobotite loomine."

Seega on Asimovi robotilugudes tuleviku tüüpiline tulevikumaailm Herzeli sõnul sarnane sellega, milles me praegu elame, kuid tänavatel kõndinud intelligentsete robotitega.

"On ebatõenäoline, et see juhtub, ja kui see juhtub, siis ei lükata seda kaua."

Helmi jaoks tunduvad robotid olevat täiesti erinevad.

„Põhiküsimus, mis jääb minu arvates inimkonna jaoks kõige olulisemaks, ei ole ikkagi hiiglasliku hulga poolintelligentsete humanoidide moraalne reguleerimine, vaid lõpuks tehisintellekti edasijõudnute vormide arendamine (ükskõik millises kehas). See superluure areng on filter, mille inimkond peab lõpuks läbima. Seetõttu on selle ülemineku jaoks julgeolekustrateegia väljatöötamine nii oluline. Mulle tundub täiesti kummaline, et robotid, androidid või "emulatsioonid" eksisteerivad kümme aastat või natuke rohkem, kuni inimkond seisab silmitsi reaalse probleemiga, mis seisneb ülintellekti masinaeetika väljatöötamises."

Hea algus?

Image
Image

Arvestades, et kolm Asimovi robootikaseadust olid esimene siiras katse lahendada väga tõsine probleem - kunstliku ülintelligentsusega masinate ohutu käitumise probleem -, tasub otsida neid hetki, kus seadused võivad endiselt olla tõhusad (või vähemalt inspireerivad).

“Ausalt öeldes ei leia ma neist kolmest robootikaseadusest inspiratsiooni,” ütleb Helm. - Masinaeetika põhiolemus on see, et need ei vasta masinaeetika alustele. Võib-olla on robootika kolm seadust laialt tuntud, kuid tegelikkuses on mõttetu kasutada neid programmeerimise alusena."

“Mingil põhjusel on hea eetika süsteem - nn deontoloogia - muutunud eetika ebausaldusväärseks aluseks. On mitmeid filosoofe, kes püüavad lahendada deontoloogia probleeme, kuid nad on enamasti samad inimesed, kes otsivad "intelligentset disaini" ja "jumalikku sekkumist". Keegi ei võta neid tõsiselt."

Asimovi kolme robootikaseaduse miinused on järgmised:

Olemuselt võistlev

Põhineb aegunud eetilisel teoorial (deontoloogia)

Ära tööta isegi ilukirjanduses

Herzel nõustub:

„Kolme seaduse eesmärk oli neid huvitaval viisil murda; sellepärast on nende lood eriti meelelahutuslikud. Seetõttu võivad kolm seadust jääda vaid moraalseks näiteks, kuidas seda mitte teha. Kui me võtame neid aluseks, on neis paratamatult lünki.”

Herzel usub, et tegelikkuses need seadused ei tööta, kuna nende osalusega tingimused on mitmetähenduslikud ja jäävad tõlgendamise objektiks - mis tähendab, et nad on tõlgete valmistajatest väga sõltuvad.

Eelarvamused robotite vastu?

Kolme seaduse ilmselge šovinismi teine aspekt (ja potentsiaalne puudus) on eeldus, et robotid peaksid vaatamata oma kõrgemale võimule jääma inimlike, inimlike vajaduste ja prioriteetide alla.

„Azimovi tulevikuühiskond koosneb täielikult šovinistidest: inimestel on palju rohkem õigusi kui robotitel. Robootika kolm seadust loodi just sellise sotsiaalse korra säilitamiseks."

Image
Image

Helm vaatleb seda probleemi pisut teisiti, väites, et kui leiame end sellisest olukorrast, on see iseenesest tõendiks, et oleme liiga kaugele jõudnud.

“Arvan, et tehisintellekti süsteemi või iseteadlikku robotit pole mõistlik kavandada. Ja erinevalt filmidest või raamatutest, kus tehisintellekti loojad satuvad intelligentsete masinate juurde "kogemata", ei usu ma, et see päriselus juhtuda võib. See võtab liiga palju pingutusi ja teadmisi. Ja enamik AI disainereid on eetiliselt asjatundlikud inimesed, nii et nad väldivad seda, mida filosoofid nimetavad "moraalselt olulisteks olenditeks". Eriti kui nad saavad hõlpsasti luua täiustatud masina, millel pole eetilisi kalduvusi."

Helm pole mures vajaduse pärast töötada välja asümmeetrilised seadused, et reguleerida robotite väärtust inimeste suhtes, väites (ja lootes), et tulevased tehisintellekti loojad loodavad teatud eetilistele piirangutele.

“Arvan, et inimesed on aatomitest valmistatud, nii et teoreetiliselt saab insener luua sünteetilise eluvormi või moraalse tähendusega roboti. Tahaksin mõelda, et keegi seda ei tee. Ma arvan, et enamik inimesi teeb ka. Kuid paratamatult leidub mõni loll, kes tahab olla tuntud kui teerajaja, isegi kui see on ebaeetiline ja rumal."

Robootika 2.0 kolm seadust?

Arvestades Asimovi kolme robootikaseaduse ilmseid puudusi, esitas io9 ressurss küsimuse: kas neid saab parandada või parandada? Tegelikult on paljud ulmekirjanikud seda mitu korda proovinud, näpistades seda aastate jooksul.

“Ei,” ütleb Helm. "Kolme seaduse osas pole paiku."

Lisaks vastuolulisele olemusele on seadused ka vastuolulised.

"Ma pooldan masinaeetika lähenemisviise, mis on rohkem koostööd tegevad, järjekindlamad ja normatiivsemad, mis tähendab, et nad saavad arusaamatustest taastuda või parandada valesid programmeerimisi."

Herzel kordab Helmi väiteid.

Eetiliste ettekirjutuste kogumi määratlemine masinaeetika tuumaks on lootusetu, kui masin põhineb paindlikul üldisel tehisintellektil. Kui seda mõeldakse intuitiivse, paindliku, kohanemisvõimelise või eetiliselt - on selles kontekstis eetilistest ettekirjutustest süsteemi jaoks kasu vaid umbkaudsete juhistena omaenda eetilise intuitsiooni rakendamiseks. Kuid sel juhul ei saa käsud eetika süsteemi aluseks, vaid ainult aspekt. Seda võib näha inimlikes näidetes - eetilised põhimõtted, mida uurime, töötavad, kuid ei ole suunistena, vaid tõukavad meie intuitsiooni ja eetilisi instinkte. Oleme eetilistest põhimõtetest praktiliselt sõltumatud."

Kuidas luua turvalist tehisintellekti?

Arvestades õigusliku lähenemisviisi ebapiisavust, võite küsida Gertzelilt ja Helmilt kaasaegsete lähenemisviiside kohta "turvalise AI" probleemile.

"Väga vähesed üldise tehisintellekti uurijad usuvad, et on võimalik luua täiesti turvaline süsteem," ütleb Herzel. "Kuid see ei häiri enamust, kuna selles elus ei saa midagi tagada."

Herzel usub, et kui oleme loonud üldise tehisintellekti süsteemi või selle embrüo, võime läbi viia uuringuid ja katseid, mis räägivad meile AI eetikast palju rohkem, kui me teame.

„Loodetavasti suudame sel viisil sõnastada tehisintellekti eetika kohta häid teooriaid, mis võimaldavad meil selle teemaga süveneda. Kuid nüüd on AI eetika teooriat üsna keeruline teoretiseerida, kuna meil pole lihtsalt häid teooriaid, meil pole üldse teooriaid.

„Ja inimestele, kes on jälginud liiga palju terminaatoreid, võib tehisintellekti loomise protsess tunduda hirmutav, kuna neil jääb selles kontekstis sõna“primitiivseks”. Kuid radikaalsemad muutused toimusid sel viisil."

"Kui grupp nutikaid koopamehi leiutas keele, ei osanud nad oodata kindla kindla ametliku keeleteooria väljatöötamist, mis võiks aidata ennustada tulevasi muutusi, mis tulenevad keele ilmnemisest ühiskonnas."

Enne kui kaaluda järgmise "kolme seaduse" väljatöötamist tehnilise probleemina, peate tegema palju uuringuid. Ja selles on Helm ja Herzel ühel meelel.

“Minu kolleeg MIRI-st Luc Muelhauser võttis meie arutluskäigu kokku järgmiselt. Ta ütles, et probleemid liiguvad sageli filosoofia juurest matemaatika ja seejärel tehnika poole. Filosoofial esitatakse sageli õigeid küsimusi, kuid kõige ebapraktilisemal viisil. Keegi ei saa kindlalt öelda, kas probleemi lahendamisel on tehtud edusamme. Kui suudame sõnastada mõistuse, samastumise ja väärtuse olulised filosoofilised probleemid täpseteks valemiteks, millega matemaatik hakkama saab, siis saab mõne mudeli üles ehitada. Ühel toredal päeval jõuab see inseneriteaduste hulka."

Helm leiab, et see probleem on teaduse ja filosoofia jaoks keeruline, kuid edasiminek on võimalik.

„Olen skeptiline, et filosoofia suudab lahendada probleemi, mis on olnud hädas enam kui 3000 aastat. Kuid ka meie ei saa võtta kasutusele matemaatilisi mudeleid küsimustest, mida tehniliselt pole. Me vajame endiselt palju teoreetilist ja isegi praktilist arengut."

Soovitatav: