Moraalne Masin: Insenerid Andsid Tehisintellektile Moraali Ja Eetika - Alternatiivvaade

Sisukord:

Moraalne Masin: Insenerid Andsid Tehisintellektile Moraali Ja Eetika - Alternatiivvaade
Moraalne Masin: Insenerid Andsid Tehisintellektile Moraali Ja Eetika - Alternatiivvaade

Video: Moraalne Masin: Insenerid Andsid Tehisintellektile Moraali Ja Eetika - Alternatiivvaade

Video: Moraalne Masin: Insenerid Andsid Tehisintellektile Moraali Ja Eetika - Alternatiivvaade
Video: Yhteisöllisyys ja moraali 2024, Mai
Anonim

Mida tugevam tehisintellekt siseneb meie igapäevaellu, seda sagedamini tuleb tal seista silmitsi keeruliste moraalsete ja eetiliste dilemmadega, mida elaval inimesel pole mõnikord nii lihtne lahendada. MITi teadlased püüdsid seda probleemi lahendada ja andsid masinale võime mõelda moraalis, lähtudes enamiku elavate inimeste arvamusest.

Mõned eksperdid usuvad, et parim viis tehisintellekti koolitada moraalselt rasketes olukordades käitumiseks on "rahvakogemuse" kasutamine. Teised väidavad, et see lähenemisviis ei jää ilma eelarvamusteta ja erinevad algoritmid võivad sama andmekogumi põhjal teha erinevaid järeldusi. Kuidas saavad sellises olukorras olla masinad, mis ilmselgelt peavad tegelike inimestega töötades tegema raskeid moraalseid ja eetilisi otsuseid?

Intellekt ja moraal

Tehisintellekti (AI) süsteemide arenedes püüavad eksperdid üha enam lahendada probleemi, kuidas süsteemile kõige paremini anda teatud toimingute sooritamiseks eetiline ja moraalne alus. Kõige populaarsem idee on tehisintellekt teha järeldusi, uurides inimeste otsuseid. Selle oletuse kontrollimiseks lõid Massachusettsi tehnoloogiainstituudi teadlased Moraalimasina. Veebisaidi külastajatel paluti teha valik, mida autonoomne sõiduk peaks tegema, kui seisavad silmitsi üsna karmiga. Näiteks on see tuttav dilemma võimaliku õnnetuse kohta, millel on sündmuste arenguks ainult kaks võimalust: auto võib kahe lapse elu päästmiseks tabada kolme täiskasvanut või teha vastupidi. Millise variandi peaksite valima? Ja kas see on võimalik näiteksohverdada eaka elu rase naise päästmiseks?

Selle tulemusena koostas algoritm tohutu testitulemuste andmebaasi ja Ariel Procaccia Carnegie Melloni ülikooli arvutiteaduste osakonnast otsustas neid masinluure parandamiseks kasutada. Uues uuringus laadis ta koos projekti ühe looja Iyad Rahwaniga kogu Moral Machine projekti baasi AI-sse ja palus süsteemil ennustada, kuidas autopiloodil olev auto reageerib sarnastele, kuid siiski veidi erinevatele stsenaariumidele. Procaccia soovis näidata, kuidas hääletuspõhine süsteem võib olla lahendus "eetilisele" tehisintellektile. " see on võimalik.

Ristmoraal

Reklaamvideo:

Idee valida kaks moraalselt negatiivset tulemust ei ole uus. Eetika kasutab selleks eraldi mõistet: topeltmõju põhimõte. Kuid see on bioeetika valdkond, kuid keegi pole varem sellist süsteemi auto suhtes rakendanud ja seetõttu äratas uuring kogu maailmas ekspertide seas erilist huvi. OpenAI kaasesimees Elon Musk usub, et "eetilise" tehisintellekti loomine on selged juhised või poliitika väljatöötamine programmi arendamiseks. Poliitikud kuulavad teda järk-järgult: näiteks lõi Saksamaa autonoomsete autode jaoks maailma esimesed eetika põhimõtted. Isegi Google'i tähestiku AI DeepMindil on nüüd eetika ja avaliku moraali osakond.

Teised eksperdid, sealhulgas Duke'i ülikooli teadlaste rühm, usuvad, et parim viis edasiliikumiseks on luua "üldine raamistik", mis kirjeldab, kuidas tehisintellekt langetab antud olukorras eetilisi otsuseid. Nad usuvad, et kollektiivsete moraalsete vaadete ühendamine, nagu samas Moraalimasinas, muudab tehisintellekti tulevikus veelgi moraalsemaks kui tänapäeva inimühiskond.

"Moraalimasina" kriitika

Olgu see kuidas on, aga praegu pole enamuse arvamuse põhimõte sugugi usaldusväärne. Näiteks võib ühel vastajate rühmal olla eelarvamusi, mis pole kõigile teistele omased. Tulemuseks on see, et täpselt sama andmekogumi saanud tehisintellektid võivad selle teabe erinevate valimite põhjal jõuda erinevatele järeldustele.

Professor James Grimmelmanni jaoks, kes on spetsialiseerunud tarkvara, rikkuse ja võimu dünaamikale, näib avaliku moraali idee vigane. "See ei ole võimeline õpetama tehisintellekti eetikat, vaid varustab seda üksnes eetikanormidega, mis on omased teatud elanikkonna osale," ütleb ta. Ja nagu eespool mainitud, tunnistab Procaccia ise, et nende uurimistöö pole midagi muud kui kontseptsiooni edukas tõestamine. Ta on siiski kindel, et selline lähenemine võib tuua edu kogu kampaaniale, et tulevikus luua ülimoraalne tehisintellekt. "Demokraatial on kahtlemata mitmeid puudusi, kuid ühtse süsteemina see töötab - isegi kui mõned inimesed teevad ikkagi otsuseid, millega enamus ei nõustu."

Vassili Makarov

Soovitatav: