Ohtlik Inimkond: Miks Me Vajame Intelligentset Tehisintellekti? - Alternatiivne Vaade

Sisukord:

Ohtlik Inimkond: Miks Me Vajame Intelligentset Tehisintellekti? - Alternatiivne Vaade
Ohtlik Inimkond: Miks Me Vajame Intelligentset Tehisintellekti? - Alternatiivne Vaade

Video: Ohtlik Inimkond: Miks Me Vajame Intelligentset Tehisintellekti? - Alternatiivne Vaade

Video: Ohtlik Inimkond: Miks Me Vajame Intelligentset Tehisintellekti? - Alternatiivne Vaade
Video: Religious Right, White Supremacists, and Paramilitary Organizations: Chip Berlet Interview 2024, Mai
Anonim

Kui küberneetika isa Norbert Wiener kirjutas 1950. aastal oma raamatu Inimlikud kasutusviisid, olid vaakumtorud endiselt peamised elektroonilised ehitusplokid ja tegelikult olid tööl vaid mõned arvutid. Ent ta kujutas tulevikku, mida me nüüd näeme, enneolematu täpsusega, eksides vaid pisidetailideks.

Enne mõnda teist tehisintellekti filosoofi mõistis ta, et AI mitte ainult jäljendab ja asendab inimesi erinevat tüüpi intellektuaalses tegevuses, vaid muudab ka inimesi selles protsessis. "Oleme lihtsalt mullivannid pidevalt voolava vee jões," kirjutas ta. "Me ei ole midagi sellist, mis lihtsalt elab, vaid iseennast põlistavad mudelid."

Näiteks kui tekkib palju ahvatlevaid võimalusi, oleme nõus uute võimaluste kasutamiseks maksma ja aktsepteerima ettevõtte juhtimisega seotud väikesi kulusid. Ja väga kiiresti muutume sõltuvaks uutest tööriistadest, kaotame võime eksisteerida ilma nendeta. Valikud muutuvad vajalikuks.

See on evolutsiooni väga vana ajalugu ja paljud selle peatükid on meile hästi teada. Enamik imetajaid saab sünteesida omaenda C-vitamiini, kuid puuviljatoidulised primaadid on selle sisseehitatud võime kaotanud. Iseteks korduvad mustrid, mida inimeseks kutsume, sõltuvad nüüd rõivastest, töödeldud toidust, vitamiinidest, süstaldest, krediitkaartidest, nutitelefonidest ja Internetist. Ja homme, kui mitte täna, siis tehisintellektist.

Wiener nägi selle olukorraga ette mitmeid probleeme, millele Alan Turing ja teised varajased AI optimistid jätsid suures osas tähelepanuta. Tema sõnul oli tegelik oht järgmine:

… on see, et kuigi sellised masinad on iseenesest abitud, saavad inimesed neid kasutada või blokeerida inimesi, et suurendada nende kontrolli ülejäänud rassi üle, või võivad poliitilised juhid proovida oma elanikkonna üle kontrolli saada poliitiliste meetodite abil, mitte masinate endi abil, inimese jaoks nii kitsad ja ükskõiksed, nagu oleks nad mehaaniliselt leiutatud.

Ilmselt on need ohud nüüd väga olulised.

Näiteks meedias võimaldavad digitaalse heli ja video uuendused maksta väikest hinda (audiofiilide ja filmikunstnike silmis) analoogvormingutest eemaldumiseks ja saada vastutasuks äärmiselt lihtsa - liiga lihtsa - salvestuste esitamise viis peaaegu ilma piiranguteta.

Reklaamvideo:

Image
Image

Kuid seal on tohutu varjatud kulu. Orwelli tõetööst on saanud reaalne võimalus. AI tehnikad praktiliselt eristamatute võltsdokumentide loomiseks muudavad tööriistad, mida oleme juurdluste jaoks kasutanud, viimase 150 aasta jooksul vananenud.

Peame lihtsalt loobuma fototõendite lühikesest ajastust ja pöörduma tagasi vanasse maailma, kus inimmälu ja usaldus olid kullastandard. Või saame tõevõitluses välja töötada uued kaitse- ja rünnakumeetodid. Üks viimase aja põnevamaid näiteid on asjaolu, et maine hävitamine on palju odavam kui sama maine teenimine ja kaitsmine. Wiener nägi seda nähtust väga laias laastus: "Pikas perspektiivis pole vahet, kas relvastate ennast ja vaenlast relvastate." Teabe ajastust on saanud ka desinformatsiooni ajastu.

Mida me saame teha? Võti on Wieneri sama tähelepanek, et "need masinad" on "ise abitud". Loome tööriistu, mitte kolleege ja tegelik oht on see, et me ei näe erinevust.

Tehisintellekt on praegusel kujul inimese intelligentsuse parasiit. Ta võtab väga ebamugavalt enda valdusesse kõik, mille inimloomingulised loojad on loonud, ja joonistab mustreid - sealhulgas meie kõige salajasemad harjumused. Neil masinatel pole veel eesmärke ega strateegiaid, nad pole võimelised enesekriitikaks ja uuendusteks, nad uurivad ainult meie andmebaase, ilma oma mõtete ja eesmärkideta.

Nad on, nagu Wiener ütleb, abitud mitte selles mõttes, et nad on aheldatud või liikumisvõimelised, ei, nad pole üldse agendid - neil puudub võime "tegutseda põhjuste põhjal", nagu Kant ütleks.

Pikas perspektiivis on “tugev AI” ehk üldine tehisintellekt põhimõtteliselt võimalik, kuid mitte soovitav. Veelgi piiratud AI, mis tänapäeval praktikas võimalik on, ei tee paha. Kuid see kujutab ohtu - osaliselt seetõttu, et seda võidakse segi ajada võimsa AI-ga.

Kui tugev on tänapäeval tehisintellekt?

Lõhe tänapäeva süsteemide ja populaarse kujutlusvõimet ujutavate sci-fi-süsteemide vahel on endiselt suur, ehkki paljud inimesed, nii amatöörid kui ka professionaalid, kipuvad seda alahindama. Heidame pilgu IBM-i Watsonile, mis võib tänapäeval olla austav.

See superarvuti on äärmiselt ulatusliku uurimis- ja arendustegevuse (teadus- ja arendustegevuse) protsessi tulemus, mis hõlmas paljude sajandite jooksul palju inimesi ja luureprojekte ning see kasutab tuhandeid kordi rohkem energiat kui inimese aju. Tema võit Jeopardias! oli tõeline triumf, mis oli võimalik tänu Jeopardy! 'i reeglite vormilistele piirangutele, kuid tema osalemiseks tuli isegi need reeglid läbi vaadata. Etenduse tegemiseks pidin loobuma väikesest mitmekülgsusest ja lisama inimlikkust.

Watson on halb ettevõte, hoolimata IBMi eksitavatest reklaamidest, mis lubavad AI vestlusoskust mõlemal tasemel, ja Watsoni muutmine usutavaks mitmetahuliseks esindajaks oleks nagu kalkulaatori muutmine Watsoniks. Watson võib olla sellise agendi jaoks hea arvutusjuhtum, pigem pigem väikeaju või amügdala kui mõistus - parimal juhul tugina toimiv eriotstarbeline alamsüsteem, kuid mitte peaaegu süsteem, mille abil kavandada ja sõnastada saadud vestluskogemuse põhjal eesmärke.

Miks me tahaksime luua Watsonist mõtleva ja loova agendi? Võib-olla meelitas Turingi geniaalne idee - kuulus Turingi test - meid lõksu: saime kinnisideeks luua vähemalt ekraani ees istuva reaalajas inimese illusioon, mööda minna "pahaendelisest orust".

Oht on see, et kuna Turing esitas oma ülesande - mis oli eeskätt kohtunike petmine -, on AI loojad püüdnud seda teostada naljakate humanoidnukkude, "koomiksite" versioonide abil, mis võluvad ja desarmeerivad tahtmatuid. ELIZA, mille autoriks oli Joseph Weisenbaum, oli esimene näide sellise illusiooni loomisest, kuid äärmiselt lihtsa algoritmiga, mis suutis inimesi veenda, et nad vestlevad teiste inimestega siiralt.

Ta muretses selle pärast, kui kerge on inimesed seda uskuda. Ja kui me iga-aastasest Lebner Prize'i piiratud Turingi testist midagi välja nuputasime, siis on see, et isegi kõige nutikamad inimesed, kes pole arvutiprogrammeerimisega kursis, satuvad nende lihtsate trikkide alla.

AI-s tegutsevate inimeste suhtumine sellistesse võtetesse ulatub otsustusvõimest autasustamiseni ja üksmeel on selles, et need nipid pole kuigi sügavad, kuid võivad olla kasulikud. Suhtumise muutus, mis oleks väga teretulnud, oleks siiras tõdemus, et nukuga maalitud androidid on valereklaamid, mis tuleks hukka mõista, mitte julgustada.

Kuidas seda saavutada? Kui oleme aru saanud, et inimesed hakkavad elu ja surma üle otsuseid tegema, järgides AI-süsteemide "nõuandeid", mille sisemised toimingud on peaaegu arusaamatud, näeme head põhjust neile, kes ärgitavad inimesi selliseid süsteeme usaldama, et hakata lootma moraali ja seaduse normidele.

Tehisintellekti süsteemid on väga võimsad tööriistad. Nii võimas, et isegi ekspertidel on hea põhjus mitte usaldada oma otsust, kui on olemas "otsused", mida need tööriistad esindavad. Kuid kui need tööriistade kasutajad saavad nende tööriistade populariseerimisest rahalist või muud kasu, peavad nad veenduma, et nad teavad, kuidas seda teha täie vastutuse, maksimaalse kontrolli ja õigusega.

Selliste süsteemide operaatorite litsentsimine ja kinnitamine - nii nagu me litsentseerime proviisoreid, kraanaoperaatoreid ja muid spetsialiste, kelle vigadel ja vääritel otsustel võivad olla rängad tagajärjed - kohustavad kindlustusfirmade ja muude organisatsioonide toel AI-süsteemide loojaid kaugele minema otsides oma toodete nõrkusi ja puudusi ning koolitades ka neid, kes nendega töötama hakkavad.

Võib ette kujutada omamoodi vastupidist Turingi testi, milles hindamine toimub kohtuniku poolt; kuni ta leiab nõrkuse, piiride rikkumise, lüngad süsteemis, ei saa ta litsentsi. Selline kohtunik nõuab tunnistuse saamiseks tõsist koolitust. Soov omistada objektile inimese mõtlemisvõime, nagu tavaliselt aruka agendiga kohtumisel, on väga-väga tugev.

Tegelikult on võime vastu seista tundele näha midagi inimlikku, see on imelik asi. Paljud inimesed leiaksid, et sellise talendi kasvatamine on kahtlane, sest isegi kõige pragmaatilisemad süsteemi kasutajad on aeg-ajalt "sõbralikud" oma tööriistade suhtes.

Sõltumata sellest, kui hoolikalt valivad AI disainerid oma toodetes võltsitud "inimlike" ületoonide kõrvaldamise, peaksime ootama etikettide, tööprotsesside õitsengut ja lubatavaid moonutusi mõlema süsteemi ja nende operaatorite tegelikust "mõistmisest". Samamoodi, nagu teleris reklaamitakse pika kõrvaltoimete loeteluga ravimeid või alkoholi reklaamitakse rohke väikeste trükistega koos kõigi seaduses nõutavate hoiatustega, nii täidavad tehisintellekti arendajad seadust, kuid muutuvad hoiatuste osas keerukamaks.

Miks me vajame tehisintellekti?

Me ei vaja teadlikke kunstlikke aineid. On palju looduslikke teadlikke aineid, millest piisab spetsialistide ja privilegeeritud isikute jaoks mis tahes ülesannete täitmiseks. Vajame nutikaid tööriistu. Tööriistadel pole õigusi ja neil ei tohiks olla tundeid, mida saab kahjustada või väärkasutada.

Üks põhjus, miks kunstlikke teadlikke aineid mitte teha, on see, et kuigi nad võivad muutuda autonoomseteks (ja põhimõtteliselt võivad nad olla sama autonoomsed, enesetäiendavad või ise loovad kui iga inimene), ei tohiks nad - ilma erilise loata - meiega jagada looduslikud teadlikud ained, meie haavatavus või suremus.

Tuftsi ülikooli filosoofiaprofessor Daniel Dennett vaidlustas kord tudengitele kunstlike ainete ja autonoomia teemalises töötoas: Andke mulle roboti tehnilised andmed, mis võib teiega lepingule alla kirjutada - mitte teise inimese omanduses olev surrogaat, vaid tema ise. Küsimus ei ole põhjuste mõistmises ega pliiatsiga paberil manipuleerimisel, vaid pigem juriidilise staatuse ja moraalse vastutuse omamises ja teenimises. Väikesed lapsed ei saa selliseid lepinguid allkirjastada, samuti puuetega inimesed, kelle õiguslik seisund kohustab neid eestkoste alla võtma ja eestkostjaid vastutama.

Robotite puhul, kes soovivad saavutada sellist ülendatud staatust, on see, et sarnaselt Supermaniga on nad selliste väidete esitamiseks liiga haavatavad. Mis juhtub, kui nad keelduvad? Milline on karistus lubaduse rikkumise eest? Kas nad lukustatakse puuri või võetakse nad lahku? Tehisintellekti vangla ei ole ebamugav, kui me kõigepealt ei vabane janu vabadusest, mida AI ise ei saa ignoreerida ega keelata. AI lahtivõtmine ei tapa tema kettale ja tarkvaras talletatud teavet.

Andmete digitaalse salvestamise ja edastamise lihtsus - läbimurre, mis võimaldas tarkvara ja andmetel saavutada tegelikult surematuse - muudab robotid haavamatuks. Kui see ei tundu ilmne, mõelge, kuidas inimeste moraal muutuks, kui saaksime inimesi iga nädal varundada. Pühapäeval ilma reedese varukoopiata sillalt ilma kummipaelata hüppamine võib olla ränk otsus, siis saate oma enneaegse surma kaadreid hiljem vaadata.

Sellepärast ei loo me teadlikke - tahaksime luua - humanoide, vaid pigem täiesti uut tüüpi olendeid, mõnda oraaklit, teadvuseta, kartmata surma, ilma tähelepanu ja armastuse ja vihata ning isiksuseta: tõe peegleid, mille inimene peaaegu kindlasti nakatab valesid.

Inimeste inimkasutus muutub peagi - taas - igavesti, kuid kui võtame vastutuse oma evolutsioonitrajektoori eest, suudame vältida tarbetuid ohte.

Ilja Khel

Soovitatav: