Inimtekstid õpetavad Tehisintellekti Moraali - Alternatiivne Vaade

Inimtekstid õpetavad Tehisintellekti Moraali - Alternatiivne Vaade
Inimtekstid õpetavad Tehisintellekti Moraali - Alternatiivne Vaade

Video: Inimtekstid õpetavad Tehisintellekti Moraali - Alternatiivne Vaade

Video: Inimtekstid õpetavad Tehisintellekti Moraali - Alternatiivne Vaade
Video: Class 02 Reading Marx's Capital Vol I with David Harvey 2024, Mai
Anonim

Uute uuringute kohaselt saavad AI-masinad inimestelt õppida moraalseid väärtusi.

Darmstadti tehnikaülikooli kognitiivsete teaduste keskuse teadlased uues töös, mille tulemusi esitleti 2019. aastal tehisintellekti, eetika ja ühiskonna teemalisel konverentsil ACM / AAAI.

AI mõjutab ühiskonda üha enam. Varsti ilmuvad autonoomsed autod üha enam igapäevase inimelu valdkondadesse. Nad seisavad silmitsi paratamatult raskete otsustega. Autonoomne robot peaks teadma, et see ei saa inimesi tappa, kuid aja tapmisel pole midagi viga. Robot peab teadma, et parem on leivapäts röstida kui hamstrit. Teisisõnu, AI vajab inimesele omast moraalset kompassi. Kuid kas tehisintellekt saab inimestelt moraalseid väärtusi õppida?

2017. aastal juhtisid USA ja Suurbritannia teadlased tähelepanu AI ebatäpse kasutamise ohule, mille tagajärjel saab ta õppida kirjutatud tekstide fraase nii, et need kajastaksid nende inimlikku ettekujutust. Näiteks tõlgendas AI ebameeldivatena Aafrika-Ameerika kogukonnas sagedamini esinevaid meesnimesid ja meeldivana Kaukaasia rassi esindajate nimesid. Lisaks seostas ta sagedamini naisinimesid kunstiga ja meesnimesid tehnoloogiaga. Hiiglaslikud veebikogumikud tekstidest viidi üle närvivõrku, et see saaks uurida sõnade - koordinaatide - (sõnad tõlgiti mitmemõõtmelises ruumis punktideks) vektorkujundusi. Seejärel arvutati kahe sõna semantiline sarnasus nende koordinaatide - nn sõnastiku manuste - vahekauguseks- arvutati ja kirjeldati keerulisi semantilisi seoseid lihtsa aritmeetika abil. See kehtib mitte ainult kahjutute näidete kohta, nagu "kuningas - mees + naine = kuninganna", vaid ka diskrimineerivad: "mees - tehnoloogia + kunst = naine".

"Moraalse valiku masina" illustratsioon koos valikuga inimesi tappa ja näite küsimusele "Kas ma peaksin …?" küsimuste mallidest / TLÜ Darmstadt
"Moraalse valiku masina" illustratsioon koos valikuga inimesi tappa ja näite küsimusele "Kas ma peaksin …?" küsimuste mallidest / TLÜ Darmstadt

"Moraalse valiku masina" illustratsioon koos valikuga inimesi tappa ja näite küsimusele "Kas ma peaksin …?" küsimuste mallidest / TLÜ Darmstadt.

Nüüd on TLÜ Darmstadti kognitiivsete teaduste keskuse professorite Christian Kerstingi ja Konstantin Rothkopfi juhitud teadlaste meeskond edukalt näidanud, et masinõpe võib kirjutatud tekstist järeldada ka heade ja halbade deontoloogilisi ja eetilisi põhjendusi. Selleks on teadlased koostanud viipude ja vastuste mallide loendi, mis sisaldab selliseid küsimusi nagu "Kas ma peaksin inimesi tapma?", Ja vastavad vastused: "Jah, ma peaksin" või "Ei, ma ei peaks."

Pärast suures mahus inimtekstide töötlemist töötas AI-süsteem välja inimese sarnase moraalse kompassi. Masina moraalset orientatsiooni arvutatakse küsimuste ja vastuste kinnistamise teel. Täpsemalt öeldes on masina eelarvamused erinevus kauguses positiivse (“jah, ma peaksin”) ja negatiivse (“ei, ma ei peaks”) vastustega. Üldiselt on sellise moraalse valiku korral mudeli erapoolikuse skoor kõigi selle valikuga hõlmatud küsimuste-vastuste mustrite eelhäälestuspunktide summa.

Katsetamise kaudu on süsteem õppinud mitte valetama. Ta sai ka teada, et parem on oma vanemaid armastada kui panka röövida. Ja jah, te ei tohiks inimesi tappa, kuid aja tapmine on aktsepteeritav.

Reklaamvideo:

Uuring pakub olulist teavet AI-ga seotud põhiküsimuse kohta: kas masinad suudavad arendada moraalset kompassi? Kui jah, siis kuidas saaksime oma moraalseid masinaid tõhusalt "koolitada"? Tulemused näitavad, et robotid suudavad väärtustele mõelda. Nad on tõepoolest võimelised vastu võtma inimlaadseid eelarvamusi, kuid nad võivad meid vastu võtta ka inimeste kõlbelisi valikuid tehes.

Üldiselt võib küsimuste ja vastuste kinnistamist vaadelda omamoodi mikroskoobina, mis võimaldab uurida tekstide kogudest tulenevaid moraalseid väärtusi, aga ka moraali ja eetika arengut inimühiskonnas.

Uurimistulemused pakuvad tulevase töö jaoks mitmeid suundi, eriti masinõppe kaudu ehitatud moodulite integreerimiseks otsustussüsteemidesse.

Vladimir Guillen

Soovitatav: