Tehisintellekti areng 21. sajandil kulgeb hüppeliselt: selle üks peamisi saavutusi on võime ära tunda inimese emotsioone. AI arendamise aastaaruandes kutsus tehisintellekti sotsiaalseid tagajärgi uuriv interdistsiplinaarne uurimiskeskus AI Now selle tehnoloogia kasutamist teatud juhtudel keelama. Ekspertide sõnul ei tohiks emotsioonide äratundmise AI-oskust rakendada otsuste tegemisel, mis mõjutavad inimeste ja kogu ühiskonna elu. Miks robotite võime emotsioone eristada võib muuta märkimisväärselt inimkonna tavapärast elu?
Robotite võime inimese emotsioone ära tunda võib tänapäevast ühiskonda negatiivselt mõjutada.
Kas robot saab arendada empaatiavõimet?
Arvutnägemise algoritmid, mis suudavad teatud emotsioone tuvastada, on planeedil eksisteerinud vähemalt paarkümmend aastat. See tehnoloogia tugineb masinõppe tulemusel saadud teabele - spetsiaalsetele algoritmidele, mis töötlevad andmeid parimate otsuste tegemiseks. Vaatamata kõigile robootika edusammudele on selle tõeliselt inimliku oskuse reprodutseerimise oskus endiselt üsna keeruline. Microsofti eksperdid märgivad, et inimeste emotsioonide äratundmine arvutite abil võib luua mitmeid uue põlvkonna rakendusi, kuid nende kindlaksmääramise raskuste tõttu on AI juba pikka aega ekslikke tulemusi näidanud. Uued uuringud näitavad siiskiet kaasaegne tehnoloogia aitab värbamisagentuuridel juba tulevase töötaja potentsiaalset produktiivsust intervjuu etapis hinnata. Niisiis, intervjuude videosalvestuste analüüs uusimate tehnoloogiate abil on juba käimas, mis võimaldab juhtidel paremini mõista oma alluvate emotsionaalset seisundit.
Intelligentsuse arendamine AI-s võib esile kutsuda mitmeid eetilisi ja moraalseid probleeme.
AI pideva jälgimise lihtsus tekitab palju eetilisi väljakutseid. Praegu on isikliku teabe konfidentsiaalsusega seotud palju probleeme, mis võivad avalikkuse negatiivset hoiakut põhjustada. Neid eetilisi kaalutlusi arvesse võttes võib tehisintellekti kasutamine igapäevaelus olla samal ajal ebausaldusväärne, kuigi see võib aidata värbamisel või kriminaalkorras karistamisel. Näiteks kui süsteemid õpivad eelarvamustest, saab AI eeliseid intervjuude ajal või karistuste määramisel minimeerida.
Lõppkokkuvõttes peavad tehnoloogia arendajad ja kogu ühiskond jälgima tähelepanelikult, kuidas AI-süsteemidest pärit teavet juhitakse otsustusprotsessidesse. Nagu iga teine intelligentsuse vorm, võivad ka tehissüsteemid anda ebaõigeid tulemusi, mis võivad negatiivselt mõjutada indiviidi või kogu ühiskonna elu. Lisaks on kaasaegsel AI-l olulised tehnilised raskused teatud emotsioonide, näiteks enesekindluse taseme lugemisel. Kui tehisintellekti usaldada soovivad inimesed teevad otsuseid, mis põhinevad AI ekslikul arvamusel, võib ühiskonnal olla väga suuri probleeme, mida saab vältida ainult selliste süsteemide kujundamise kaudu nagu õiglus, läbipaistvus ja eetika. Teisisõnu,Enne, kui nutikad süsteemid saavad õppida emotsioone õigesti ära tundma, peavad teadlased esmalt kõvasti vaeva nägema, et luua tehisintellekti moraalikood.
Reklaamvideo:
Autor: Daria Eletskaya