Tehisintellekt On õppinud Emotsioone ära Tundma. Mida See Võib Viia? - Alternatiivne Vaade

Sisukord:

Tehisintellekt On õppinud Emotsioone ära Tundma. Mida See Võib Viia? - Alternatiivne Vaade
Tehisintellekt On õppinud Emotsioone ära Tundma. Mida See Võib Viia? - Alternatiivne Vaade

Video: Tehisintellekt On õppinud Emotsioone ära Tundma. Mida See Võib Viia? - Alternatiivne Vaade

Video: Tehisintellekt On õppinud Emotsioone ära Tundma. Mida See Võib Viia? - Alternatiivne Vaade
Video: Ingvar Villido | Emotsioon on silmale nähtamatu. See on teine dimensioon ehk mõõde 2024, Mai
Anonim

Tehisintellekti areng 21. sajandil kulgeb hüppeliselt: selle üks peamisi saavutusi on võime ära tunda inimese emotsioone. AI arendamise aastaaruandes kutsus tehisintellekti sotsiaalseid tagajärgi uuriv interdistsiplinaarne uurimiskeskus AI Now selle tehnoloogia kasutamist teatud juhtudel keelama. Ekspertide sõnul ei tohiks emotsioonide äratundmise AI-oskust rakendada otsuste tegemisel, mis mõjutavad inimeste ja kogu ühiskonna elu. Miks robotite võime emotsioone eristada võib muuta märkimisväärselt inimkonna tavapärast elu?

Robotite võime inimese emotsioone ära tunda võib tänapäevast ühiskonda negatiivselt mõjutada
Robotite võime inimese emotsioone ära tunda võib tänapäevast ühiskonda negatiivselt mõjutada

Robotite võime inimese emotsioone ära tunda võib tänapäevast ühiskonda negatiivselt mõjutada.

Kas robot saab arendada empaatiavõimet?

Arvutnägemise algoritmid, mis suudavad teatud emotsioone tuvastada, on planeedil eksisteerinud vähemalt paarkümmend aastat. See tehnoloogia tugineb masinõppe tulemusel saadud teabele - spetsiaalsetele algoritmidele, mis töötlevad andmeid parimate otsuste tegemiseks. Vaatamata kõigile robootika edusammudele on selle tõeliselt inimliku oskuse reprodutseerimise oskus endiselt üsna keeruline. Microsofti eksperdid märgivad, et inimeste emotsioonide äratundmine arvutite abil võib luua mitmeid uue põlvkonna rakendusi, kuid nende kindlaksmääramise raskuste tõttu on AI juba pikka aega ekslikke tulemusi näidanud. Uued uuringud näitavad siiskiet kaasaegne tehnoloogia aitab värbamisagentuuridel juba tulevase töötaja potentsiaalset produktiivsust intervjuu etapis hinnata. Niisiis, intervjuude videosalvestuste analüüs uusimate tehnoloogiate abil on juba käimas, mis võimaldab juhtidel paremini mõista oma alluvate emotsionaalset seisundit.

Intelligentsuse arendamine AI-s võib esile kutsuda mitmeid eetilisi ja moraalseid probleeme
Intelligentsuse arendamine AI-s võib esile kutsuda mitmeid eetilisi ja moraalseid probleeme

Intelligentsuse arendamine AI-s võib esile kutsuda mitmeid eetilisi ja moraalseid probleeme.

AI pideva jälgimise lihtsus tekitab palju eetilisi väljakutseid. Praegu on isikliku teabe konfidentsiaalsusega seotud palju probleeme, mis võivad avalikkuse negatiivset hoiakut põhjustada. Neid eetilisi kaalutlusi arvesse võttes võib tehisintellekti kasutamine igapäevaelus olla samal ajal ebausaldusväärne, kuigi see võib aidata värbamisel või kriminaalkorras karistamisel. Näiteks kui süsteemid õpivad eelarvamustest, saab AI eeliseid intervjuude ajal või karistuste määramisel minimeerida.

Lõppkokkuvõttes peavad tehnoloogia arendajad ja kogu ühiskond jälgima tähelepanelikult, kuidas AI-süsteemidest pärit teavet juhitakse otsustusprotsessidesse. Nagu iga teine intelligentsuse vorm, võivad ka tehissüsteemid anda ebaõigeid tulemusi, mis võivad negatiivselt mõjutada indiviidi või kogu ühiskonna elu. Lisaks on kaasaegsel AI-l olulised tehnilised raskused teatud emotsioonide, näiteks enesekindluse taseme lugemisel. Kui tehisintellekti usaldada soovivad inimesed teevad otsuseid, mis põhinevad AI ekslikul arvamusel, võib ühiskonnal olla väga suuri probleeme, mida saab vältida ainult selliste süsteemide kujundamise kaudu nagu õiglus, läbipaistvus ja eetika. Teisisõnu,Enne, kui nutikad süsteemid saavad õppida emotsioone õigesti ära tundma, peavad teadlased esmalt kõvasti vaeva nägema, et luua tehisintellekti moraalikood.

Reklaamvideo:

Autor: Daria Eletskaya

Soovitatav: