Moraalse Masina Ehitamine: Kes Vastutab Isesõitvate Autode Eetika Eest? - Alternatiivne Vaade

Sisukord:

Moraalse Masina Ehitamine: Kes Vastutab Isesõitvate Autode Eetika Eest? - Alternatiivne Vaade
Moraalse Masina Ehitamine: Kes Vastutab Isesõitvate Autode Eetika Eest? - Alternatiivne Vaade

Video: Moraalse Masina Ehitamine: Kes Vastutab Isesõitvate Autode Eetika Eest? - Alternatiivne Vaade

Video: Moraalse Masina Ehitamine: Kes Vastutab Isesõitvate Autode Eetika Eest? - Alternatiivne Vaade
Video: Kuidas kontrollida kasutatud autot 2024, Aprill
Anonim

Sõidate mööda maanteed, kui mees saab otsa tiheda liiklusega teele. Autod liiguvad teie ümber ja teil on otsuse tegemiseks sekund aega jaotatud: proovige inimest vältida ja luua õnnetusoht? Kas jätkata sõitu lootuses, et tal on aega? Pidurdada? Kuidas hindate lapse tagaistmel rihma sattumise tõenäosust? Paljuski on see klassikaline moraalne dilemma, käruprobleem. Tal on miljon erinevat võimalust, mis võimaldavad teil tuvastada inimeste eelarvamusi, kuid põhiolemus on sama.

Olete olukorras, kus kaalul on elu ja surm, pole lihtsat valikut ja teie otsus määrab tegelikult selle, kes elab ja kes sureb.

Käru dilemma ja tehisintellekt

MIT-i uus paber, mis avaldati eelmisel nädalal ajakirjas Nature, üritab miljonite vabatahtlike värbamisega leida käruprobleemile toimiva lahenduse. Katse algas 2014. aastal ja oli edukas, saades 233 riigist üle 40 miljoni vastuse, tehes sellest ühe suurima moraaliuuringu, mida eales läbi viidud.

Inimene saab selliseid otsuseid teha alateadlikult. Kui teie auto sõidab mööda teed, on raske kõiki eetilisi süsteeme ja moraalseid eeldusi kaaluda. Kuid meie maailmas tehakse otsuseid üha enam algoritmide abil ja arvutid saavad hõlpsalt reageerida kiiremini kui meie.

Hüpoteetilised olukorrad isesõitvate autodega pole ainsad moraalsed otsused, mida algoritmid peavad tegema. Meditsiinilised algoritmid valivad selle, kes saab piiratud ressurssidega ravi. Automatiseeritud droonid valivad, kui suur "kaasnev kahju" on individuaalse sõjalise tegevuse korral vastuvõetav.

Reklaamvideo:

Kõik moraaliprintsiibid pole võrdsed

Käruprobleemi “lahendused” on sama mitmekesised kui probleemid ise. Kuidas teevad masinad moraalseid otsuseid, kui moraali ja eetika aluseid ei aktsepteerita üldiselt ja neil ei pruugi olla lahendusi? Kes saab kindlaks teha, kas algoritm töötab õigesti või valesti?

Moral Machine teadlaste valitud rahvahulga lähenemisviis on üsna praktiline. Lõppkokkuvõttes peab üldsus isesõitvate autode aktsepteerimiseks aktsepteerima nende otsuste aluseks olevat moraalset alust. Pole hea, kui eetikud või juristid pakuvad välja lahenduse, mis on tavalistele autojuhtidele vastuvõetamatu või vastuvõetamatu.

Tulemused viivad kurioosse järelduseni, et moraalsed prioriteedid (ja seega ka inimeste tehtavad algoritmilised otsused) sõltuvad sellest, kus te maailmas olete.

Esiteks tunnistavad teadlased, et reaalses elus on võimatu teada nende olukordade sagedust või olemust. Õnnetusse sattunud inimesed ei oska sageli öelda, mis täpselt juhtus ning võimalike olukordade ulatus välistab lihtsa klassifitseerimise. Seetõttu tuleb probleemi lahendamiseks jaotada lihtsustatud stsenaariumideks, otsides üldisi moraalseid reegleid ja põhimõtteid.

Uuringu läbiviimisel esitatakse teile kolmteist küsimust, mis nõuavad lihtsat jah või ei valikut, püüdes kitsendada vastuseid üheksale tegurile.

Kas auto peaks keerama teisele sõidurajale või liikuma edasi? Kas peaksite säästma noori, mitte vanu? Naised või mehed? Loomad või inimesed? Kas peaksite proovima päästa võimalikult palju elusid või on üks laps kahe eaka inimese väärt? Päästke autos reisijaid, mitte jalakäijaid? Need, kes reegleid ei järgi, või need, kes reegleid ei järgi? Kas peaksite päästma inimesi, kes on füüsiliselt tugevamad? Kuidas on lood kõrgema sotsiaalse staatusega inimestega, näiteks arstide või ärimeestega?

Selles karmis hüpoteetilises maailmas peab keegi surema ja te vastate kõigile neile küsimustele - erineva entusiasmiga. Nende otsuste tegemine näitab aga ka sügavalt juurdunud kultuurinorme ja eelarvamusi.

Teadlaste uuritud tohutu andmestiku töötlemine annab nii universaalseid reegleid kui ka uudishimulikke erandeid. Kolm kõige domineerivamat tegurit, keskmiselt kogu elanikkonna kohta, olid see, et kõik eelistasid päästa rohkem elusid kui vähem, pigem inimesi kui loomi ja pigem noori kui vanu.

Piirkondlikud erinevused

Võite nende punktidega nõustuda, kuid mida sügavamalt neid arvate, seda murettekitavamad on moraalsed järeldused. Rohkem vastajaid otsustasid kurjategija kassi päästa, kuid üldiselt eelistati koera päästa kurjategijast. Maailma keskmiselt hinnatakse vanaks jäämist kõrgemaks kui kodutuks jäämist, kuid kodutuid päästeti vähem kui rasvaseid inimesi.

Ja need reeglid ei olnud universaalsed: Prantsusmaalt, Suurbritanniast ja USA-st pärit vastajad eelistasid noori, samas kui Hiinast ja Taiwanist pärit vastajad olid rohkem nõus eakaid päästma. Jaapanist pärit vastajad eelistasid jalakäijate päästmist reisijatest, samas kui Hiinas eelistavad nad jalakäijaid.

Teadlased leidsid, et nad võiksid vastused riikide kaupa jagada kolme kategooriasse: „lääs”, peamiselt Põhja-Ameerika ja Euroopa, kus moraal põhineb suuresti kristlikul õpetusel; "Ida" - Jaapan, Taiwan, Lähis-Ida, kus domineerivad konfutsianism ja islam; "Lõuna" riigid, sealhulgas Kesk- ja Lõuna-Ameerika, koos tugeva Prantsuse kultuurilise mõjuga. Lõunapoolses segmendis eelistatakse naiste ohverdamist tugevamalt kui kuskil mujal. Idaosas on suurem tendents noorte päästmiseks.

Filtreerimine erinevate vastajate atribuutide järgi annab lõputult huvitavaid võimalusi. Tõenäoliselt ei eelista „väga religioossed” vastajad looma päästmist, kuid nii religioossed kui ka mittereligioossed vastajad eelistavad kõrge sotsiaalse staatusega inimeste päästmist umbes võrdselt (kuigi võib öelda, et see on vastuolus mõne usuõpetusega). Mehed ja naised eelistavad päästa naisi, kuid mehed kipuvad seda vähem tegema.

Vastamata küsimused

Keegi ei väida, et see uurimus "lahendab" kõik need kaalukad moraalsed probleemid kuidagi. Uuringu autorid märgivad, et veebiandmete hulgimüük hõlmab erapoolikust. Kuid isegi suure valimi korral oli küsimuste arv piiratud. Mis saab, kui riskid muutuvad sõltuvalt teie tehtud otsusest? Mis saab siis, kui algoritm suudab arvutada, et teil oli ainult 50-protsendiline tõenäosus jalakäijaid tappa, arvestades liikumise kiirust?

Edmond Awad, üks uuringu autoritest, väljendas ettevaatust tulemuste ülemäärase tõlgendamise suhtes. Tema arvates peaks arutelu voolama riskianalüüsi - kes on enam-vähem ohus - selle asemel, et otsustada, kes sureb ja kes mitte.

Kuid uuringu kõige olulisem tulemus oli arutelu, mis selle pinnal lahvatas. Kuna algoritmid hakkavad inimeste elu mõjutavaid üha olulisemaid otsuseid vastu võtma, on hädavajalik, et arutame pidevalt AI eetikat. „Kunstliku südametunnistuse” kujundamine peab sisaldama kõigi arvamust. Ehkki vastuseid ei pruugi alati olla lihtne leida, on kõige parem proovida kujundada algoritmide jaoks moraalne raamistik, lubades algoritmidel ilma inimese juhtimiseta iseseisvalt maailma kujundada.

Soovitatav: