AI Võib Muuta Meie Elu Igaveseks - Kuid Me Oleme Praegu Pimedal Teel - Alternatiivne Vaade

AI Võib Muuta Meie Elu Igaveseks - Kuid Me Oleme Praegu Pimedal Teel - Alternatiivne Vaade
AI Võib Muuta Meie Elu Igaveseks - Kuid Me Oleme Praegu Pimedal Teel - Alternatiivne Vaade

Video: AI Võib Muuta Meie Elu Igaveseks - Kuid Me Oleme Praegu Pimedal Teel - Alternatiivne Vaade

Video: AI Võib Muuta Meie Elu Igaveseks - Kuid Me Oleme Praegu Pimedal Teel - Alternatiivne Vaade
Video: Military Lessons: The U.S. Military in the Post-Vietnam Era (1999) 2024, Mai
Anonim

Tehisintellekt kujundab juba maailma nähtavatel viisidel. Andmed juhivad meie globaalset digitaalset ökosüsteemi ja AI-tehnoloogiad paljastavad andmete mustrid.

Nutitelefonid, nutikad kodud ja nutikad linnad mõjutavad meie elu- ja suhtlemisviisi ning tehisintellekti süsteemid osalevad üha enam otsuste rentimises, meditsiinilises diagnostikas ja kohtuotsuste tegemises. Kas see stsenaarium on utoopiline või düstoopiline, on meie otsustada.

AI võimalikud riskid on mitu korda loetletud. Tapjarobotid ja massiline tööpuudus on tavalised probleemid, samas kui mõned inimesed kardavad isegi väljasuremist. Optimistlikumad prognoosid väidavad, et AI lisab 2030. aastaks maailmamajandusele 15 triljonit dollarit ja viib meid lõpuks mingisugusesse sotsiaalsesse nirvaanasse.

Peame kindlasti arvestama selle mõjuga, mida sellised tehnoloogiad avaldavad meie ühiskonnale. Üks oluline küsimus on see, et AI-süsteemid tugevdavad olemasolevaid sotsiaalseid eelarvamusi - laastavalt.

Mitmed kurikuulsad näited selle nähtuse kohta on pälvinud laialdast tähelepanu: kaasaegsed automatiseeritud masintõlkesüsteemid ja pildituvastussüsteemid.

Need probleemid tekivad seetõttu, et sellised süsteemid kasutavad suurte treeningandmekogumite mustrite määratlemiseks matemaatilisi mudeleid (näiteks närvivõrke). Kui neid andmeid on mitmel viisil tõsiselt moonutatud, uuritakse ja koolitatakse süsteemide abil loomulikke vigu.

Eelarvamusega autonoomsed tehnoloogiad on probleemsed, kuna need võivad isoleerida selliseid rühmi nagu naised, etnilised vähemused või vanurid, suurendades sellega olemasolevat sotsiaalset tasakaalustamatust.

Kui AI-süsteeme koolitatakse näiteks politsei vahistamisandmete põhjal, dubleeritakse kõik olemasolevates vahistamisskeemides ilmnenud teadlikud või alateadlikud eelarvamused „politsei ettenägelikkuse” AI-süsteemi abil, mis on välja õpetatud nende andmete põhjal.

Reklaamvideo:

Tunnistades selle tõsist mõju, on mitmed lugupeetud organisatsioonid hiljuti soovitanud koolitada kõiki tehisintellekti süsteeme objektiivsete andmete osas. Euroopa Komisjoni varem 2019. aastal avaldatud eetilised juhised soovitasid järgmist soovitust:

Andmete kogumisel võivad need sisaldada sotsiaalselt konstrueeritud vigu, ebatäpsusi. Sellega tuleb tegeleda enne AI koolitamist mis tahes andmekogumis.

See kõik kõlab piisavalt mõistlikult. Kahjuks ei ole mõnikord enne koolitust võimalik tagada teatud andmekogumite erapooletust. Konkreetne näide peaks seda selgitama.

Kõik kaasaegsed masintõlkesüsteemid (näiteks Google Translate) õpivad lausepaaridest.

Anglo-prantsuse süsteem kasutab andmeid, mis seovad ingliskeelsed laused ("ta on pikk") samaväärsete prantsuse lausetega ("elle est grande").

Teatud treeningute andmekogumis võib olla 500 miljonit sellist paari ja seetõttu ainult üks miljard lauset. Sellise andmestiku hulgast tuleb eemaldada kõik soolised nihked, kui tahame vältida järgmiste tulemuste genereerimist süsteemis:

Prantsusekeelne tõlge loodi Google'i tõlke abil 11. oktoobril 2019 ja see on vale: "Ils" on prantsuse keeles maskuliinne mitmus ja ilmub siin vaatamata kontekstile, mis näitab selgelt, et sellele viidatakse naiste kohta.

See on klassikaline näide automatiseeritud süsteemist, mis eelistab meestest vaikestandardit, kuna treeningandmed on erapoolikud.

Üldiselt on tõlkekomplektides 70 protsenti üldistest asesõnadest mehelikud ja 30 protsenti naiselikud. Selle põhjuseks on asjaolu, et sellistel eesmärkidel kasutatavad tekstid viitavad sagedamini meestele kui naistele.

Tõlkesüsteemi olemasolevate vigade kordumise vältimiseks oleks vaja andmete hulgast välja jätta konkreetsed lausepaarid, nii et mehelikud ja naiselikud asesõnad esineksid suhtega 50/50 nii inglise kui prantsuse poolel. See hoiab ära süsteemi, millega maskuliinsetele asesõnadele omistatakse suurem tõenäosus.

Ja isegi kui saadud andmete alamhulk on sooliselt täielikult tasakaalus, on see ikkagi mitmel viisil (nt etniline või vanus) viltu. Tõepoolest, kõiki neid vigu oleks keeruline täielikult kõrvaldada.

Kui üks inimene pühendab AI koolituse andmete ühe miljardi lause lugemisele kõigest viis sekundit, kulub nende kõigi katsetamiseks 159 aastat - ja see eeldab valmisolekut töötada terve päeva ja öö ilma lõunapausideta.

Alternatiivne?

Seetõttu on ebareaalne nõuda, et kõik koolitusandmekogumid oleksid enne AI-süsteemide ehitamist erapooletud. Sellised kõrgetasemelised nõuded eeldavad tavaliselt, et “AI” tähistab matemaatiliste mudelite ja algoritmiliste lähenemisviiside homogeenset klastrit.

Tegelikult nõuavad erinevad AI-ülesanded täiesti erinevat tüüpi süsteeme. Ja selle mitmekesisuse täielik alahindamine varjab tegelikke probleeme, mis on seotud näiteks moonutatud andmetega. See on kahetsusväärne, kuna see tähendab, et andmete erapoolikusega seotud probleemi muud lahendused on tähelepanuta jäetud.

Näiteks saab koolitatud masintõlkesüsteemi nihkeid märkimisväärselt vähendada, kui süsteemi kohandatakse pärast seda, kui see on koolitatud suurele, paratamatult kallutatud andmestikule.

Seda saab teha palju väiksema, vähem segase andmestiku abil. Seetõttu võib enamik andmeid olla erapoolik, kuid koolitatud süsteem pole vajalik. Kahjuks arutavad need meetodid harva neid, kes töötavad välja juhendid ja õigusraamistikud AI uurimiseks.

Kui AI-süsteemid lihtsalt süvendavad olemasolevat sotsiaalset tasakaalustamatust, pigem hävitavad need kui soodustavad positiivseid sotsiaalseid muutusi. Kui AI-tehnoloogiad, mida me igapäevaselt üha sagedamini kasutame, oleksid palju vähem kallutatud kui praegu, võiksid need aidata meil ära tunda ja astuda vastu meie varjatud eelarvamustele.

Muidugi, selle poole peaksime püüdlema. Seetõttu peavad AI disainerid mõtlema palju hoolikamalt nende loodud süsteemide sotsiaalsetele mõjudele, samal ajal kui AIst kirjutajad peavad sügavamalt mõistma, kuidas AI süsteemid tegelikult on projekteeritud ja ehitatud.

Sest kui läheneme tõepoolest tehnoloogilisele idüllile või apokalüpsisele, oleks eelistatav esimene.

Victoria Vetrova

Soovitatav: