Miks On Kurjategijate üle Kohut Mõistev Tehisintellekt Ohtlik? - Alternatiivvaade

Sisukord:

Miks On Kurjategijate üle Kohut Mõistev Tehisintellekt Ohtlik? - Alternatiivvaade
Miks On Kurjategijate üle Kohut Mõistev Tehisintellekt Ohtlik? - Alternatiivvaade

Video: Miks On Kurjategijate üle Kohut Mõistev Tehisintellekt Ohtlik? - Alternatiivvaade

Video: Miks On Kurjategijate üle Kohut Mõistev Tehisintellekt Ohtlik? - Alternatiivvaade
Video: Кавказская пленница, или Новые приключения Шурика (комедия, реж. Леонид Гайдай, 1966 г.) 2024, Mai
Anonim

Tehisintellekt aitab juba teie tulevikku mingil moel määratleda. Kui otsite otsingumootorist midagi, kasutage sellist teenust nagu Netflix või pank hindab teie sobivust hüpoteekimiseks. Aga mis juhtub, kui tehisintellekt peab kohtus tuvastama, kas olete süüdi või mitte? Kummalisel kombel võib mõnes riigis see juba juhtuda. Hiljuti küsiti USA kõrge kohtuniku John Robertsilt, kas ta suudaks ette kujutada päeva, mil "tehisintellekti juhitavad nutikad masinad aitavad tõendeid leida või isegi kohtulikke otsuseid langetada". Ta vastas: "See päev on juba kätte jõudnud ja ta aitab oluliselt õigusasutusi menetluses."

Võib-olla pidas Roberts silmas hiljutist Eric Loomise juhtumit, kes mõisteti eraettevõtte salajase tarkvara soovitusel kuueks aastaks vangi. Loomis, kellel oli juba kriminaalne ajalugu ja kellele mõisteti karistus varastatud autoga politsei eest põgenemise eest, väidab nüüd, et tema menetlusõigust on rikutud, kuna ei tema ega tema esindajad ei saanud soovitusalgoritmi üle vaadata ega vaidlustada.

Aruande koostas tarkvara Compas, mida Notrpointe müüb laevadele. Programm kehastab tehisintellekti uurimistöös uut suundumust: aitab kohtunikel kohtus langetada „paremaid” (või vähemalt andmepõhisemaid) otsuseid.

Kuigi Loomise juhtumi konkreetsed üksikasjad jäävad suletuks, sisaldab see kindlasti graafikuid ja numbreid, mis määratlevad Loomise elu, käitumise ja tagasilanguse tõenäosuse. Nende hulka kuuluvad vanus, rass, sooidentiteet, harjumused, brauseri ajalugu ja mõned kolju mõõtmised. Keegi ei tea täpsemalt.

On teada, et juhtumi prokurör ütles kohtunikule, et Loomis demonstreeris "suurt korduvuse, vägivalla, kohtueelse menetluse ohtu". Karistuse mõistmisel on see standard. Kohtunik nõustus ja ütles Loomisele, et "Compas tuvastas ta kui ühiskonnale kõrge riskiga inimese".

Wisconsini ülemkohus mõistis Loomise süüdi, lisades, et Compase raport lisas tema otsusele väärtuslikku teavet, kuid märkis, et ilma temata langetas ta sama lause. Muidugi ei saa te seda kindlasti kontrollida. Milliseid kognitiivseid eelarvamusi võib olla, kui kohtunike nõustamiseks, mida teha, on kaasatud kõikvõimas "tark" süsteem nagu Compas?

Teadmata kasutamine

Reklaamvideo:

Olgem ausad, Wisconsini kohus ei teinud midagi “ebaseaduslikku” - see on vaid näide. Teised kohtud saavad seda teha ja teevad ka edaspidi.

Kahjuks ei tea me, kuivõrd tehisintellekti ja muid algoritme karistuse määramisel kasutatakse. Arvatakse, et mõned kohtud katsetavad suletud kohtuprotsessides selliseid süsteeme nagu Compas, kuid ei saa partnerlust nõuda. Samuti on arusaam, et mitmed tehisintellekti idufirmad töötavad välja selliseid nutikaid süsteeme.

Image
Image

Tehisintellekti kasutamine õigusaktides ei alga ega lõpe lausega, see algab uurimisega. Ühendkuningriik on juba välja töötanud VALCRI süsteemi, mis teeb sekunditega aeganõudvat analüütilist tööd - hiilib läbi hulgaliselt andmeid, näiteks tekste, laboratooriumi aruandeid ja politseidokumente, et tuua välja asju, mis võivad vajada täiendavat uurimist.

Suurbritannia West Midlandsi politsei testib järgmise kolme aasta jooksul VALCRI-d, kasutades anonüümseid andmeid, mis sisaldavad üle 6,5 miljoni kirje. Sarnase katse viib läbi ka Antwerpeni politsei Belgias. Kuid varem on tehisintellekt ja süvaõppeprojektid, mis hõlmavad tohutuid andmekogumeid, olnud problemaatilised.

Kasu vähestele

Tehnoloogia on pakkunud kohtusaalidele palju kasulikke abivahendeid, alates kopeerimismasinatest kuni DNA eraldamiseni sõrmejälgedest kuni keerukate jälgimistehnikate juurde. Kuid see ei tähenda, et mõni tehnoloogia oleks edasiminek.

Kuigi tehisintellekti kasutamine uurimises ja süüdimõistvates kohtuotsustes võib potentsiaalselt aega ja raha kokku hoida, tekitab see teravaid probleeme. ProPublica Compase aruanne näitas selgelt, et mustanahalisi pidas programm ekslikult retsidiivsemateks kui valged. Isegi kõige keerukamad tehisintellekti süsteemid võivad pärida nende loojate rassilised ja soolised eelarvamused.

Veelgi enam, mis mõtet on inimestele ainuomaste küsimuste üle otsuste langetamine (vähemalt osaliselt) viia algoritmile? Ameerika Ühendriikides on teatud raskused, kui žüriid proovivad oma eakaaslasi. Juriidilised standardid pole kunagi olnud etaloniks, seetõttu peetakse neid žürii kohtuprotsesse kõige demokraatlikumaks ja tõhusamaks veendumussüsteemiks. Me teeme vigu, kuid aja jooksul kogume süsteemi täpsustades teadmisi, kuidas neid mitte teha.

Kompassid ja sarnased süsteemid tähistavad õigussüsteemis musta kasti. Selliseid ei tohiks olla. Õigussüsteemid sõltuvad järjepidevusest, teabe läbipaistvusest ja läbivaatamise võimest. Ühiskond ei taha süsteemi, mis julgustaks võidujooksu ehitama tehisintellekti idufirmasid, mis teevad kiireid, odavaid ja eksklusiivseid lahendusi. Kiirustades tehtud tehisintellekt on kohutav.

Compas'i värskendatud avatud lähtekoodiga versioon oleks paranemine. Kuid kõigepealt tuleb õigussüsteemi standardid tõsta, enne kui hakkame vastutust algoritmide kasuks suunama.

ILYA KHEL

Soovitatav: