Tehisintellekt: Ohtlik Vaenlane Või Lahke Abimees - Alternatiivne Vaade

Tehisintellekt: Ohtlik Vaenlane Või Lahke Abimees - Alternatiivne Vaade
Tehisintellekt: Ohtlik Vaenlane Või Lahke Abimees - Alternatiivne Vaade

Video: Tehisintellekt: Ohtlik Vaenlane Või Lahke Abimees - Alternatiivne Vaade

Video: Tehisintellekt: Ohtlik Vaenlane Või Lahke Abimees - Alternatiivne Vaade
Video: Выбросите срочно орхидею из дома, чтобы уберечь свой дом и себя 2024, Mai
Anonim

Tehisintellekti (AI) kasutamine igapäevaelus saab kiiresti hoogu, kuid see suundumus tekitab spetsialistidele üha enam muret. New Yorgi ülikooli töötajad koostasid hoiatava märkuse I. I. kasutamisega seotud riskide kohta. Enamik autoreid keskendus eetilistele ja sotsiaalsetele küsimustele, aga ka regulatsiooni puudumisele. Rühma AI Now aruandes öeldakse vähe uut, kuid maailmapraktikas tõstetakse üha enam välja küsimus kunstliku mõtlemise töö piiramise vajalikkusest.

Peaaegu kõik tehnoloogia arengu visioonid rääkisid AI võimalikest ohtudest. Stephen Hawking väljendas eelmise aasta novembris peamisi kartusi, mis kaasnevad mõttega tehnoloogia arengust. Tema arvates õpivad arvutid varem või hiljem ise paljunema. Bioloogilised olendid kaotavad räni intelligentsuse nii vaimsete võimete kui ka keskkonnaga kohanemise osas, eriti teisel planeedil. Varem või hiljem peavad nutirobotid inimesi vananenud vormiks ja tahavad neist lahti saada.

Hawkingi sõnad kõlavad endiselt õudusjutuna, neid on filmides ja raamatutes mängitud kümneid kordi, kuid isegi need, kes tegelevad nutisüsteemide juurutamisega, on AI-ga üha enam kartnud tulevikku, kuigi on ka neid, kes peavad selliseid hirme ennatlikuks. "Tänapäeval on AI arenemise ees hirm Marsi ülerahvastatuse pärast muretsemine," ütles Google Braini juht Andrew Ng. Siiski ei rahustanud ta kõiki.

Image
Image

Suurimate foobiate hulgas, mis on seotud arvuti tutvustamisega kõigisse eluvaldkondadesse, väärib märkimist kolm. Esiteks kasutatakse arvutimeelt sõjarelvana, mis ületab märkimisväärselt isegi hävitava jõu tuumarelvi. Teine on see, et AI orjastab inimesi. Kolmandaks, nagu iga inimlooming, on ka arvuti veaohtlik. Kõiki kolme punkti saab üksikasjalikumalt arutada.

21. augustil 2017 saatsid tehisintellekti uurimise ja rakendamise valdkonna juhtivad eksperdid, sealhulgas selliste ettevõtete juhid nagu SpaceX ja Deep Mind, ÜRO-le avatud kirja. Tekstis hoiatasid nad maailma üldsust surmavate autonoomsete relvade väljatöötamise eest, olgu need robotid või muud mehhanismid, mis on loodud vaenlase tapmiseks. Dokumendi autorid juhtisid tähelepanu selliste relvade kasutamise saatuslikele tagajärgedele. Oma fenomenaalse tõhususega on õiglane küsida, kelle kätesse see langeb. Seda saavad kasutada nii kitsas eliidi ring kui ka terroristid.

Kirja autorid kutsusid kontrollorganisatsiooni ja koos sellega ka teadusringkondi üles tutvustama AI kahjuliku kasutamise ulatust. Inimese vastutus oma loomingu eest kohustab teda riskide ärahoidmiseks tegema tõsist tööd. Lisaks seadustele peavad nende loojad piirama ka robotite võimsust, kes peavad mõistatama, kuidas äärmuslikel juhtudel masinad välja lülitada.

Image
Image

Reklaamvideo:

Elektrooniliste süsteemide poliitilist kuritarvitamist on sotsiaalvõrgustike ja andmeanalüüsi algoritmide abil juba demonstreeritud. Selle aasta kevadel ähvardas kogu maailmas skandaal Cambridge Analyticaga. Selle spetsialistid viisid läbi kasutajate andmete süvaanalüüsi ja panid Facebooki reklaame, mis olid kohandatud iga inimese jaoks eraldi.

Ettevõtte töötajad ei ületanud mitte ainult eetilisi raamistikke, vaid rakendasid ka tänapäevaseid tehnoloogiaid, mille tööd oli võimatu analüüsida. Masinõppe tõhusus on juhtivate matemaatikute seas korduv teema. Nad tunnistavad üksmeelselt, et on imestunud arvutiprogrammide erakorralise edu üle, kuid nad ei suuda täielikult mõista keeruka süsteemi tööd. Selle aasta aprillis Myanmaris tekitasid Facebooki postitused ka rahvaste seas rahutusi, kuid erinevalt USA-st, kus korraldati proteste, toimus Aasia osariigis veresaun, milles hukkus mitusada inimest. Tohutu hulga inimestega manipuleerimine on reaalsus ja siinsed robotid saavad meiega julma nalja mängida.

Image
Image

Tasub meeles pidada sedasama Facebooki, kus käivitati AI-põhised vestlusprogrammid. Virtuaalseid abilisi koolitati vestluspartneriga dialoogi pidama. Aja jooksul muutusid robotid tegelikest inimestest eristamatuks ja siis otsustasid autorid robotid kokku viia. Aja jooksul hakkasid botid lühendama leksikaalseid struktuure ja vahetama kõmu. Meedia paisutas uudistest sensatsiooni, nende sõnul "masinad mässasid". Kuid jättes kõrvale ajakirjanike liialdused, on õiglane tunnistada, et kui masinad hakkavad omavahel suhtlema, ei pruugi inimene seda märgata. Ja kuidas nad seal oma elu elavad - keegi ei tea.

Arvutimeele järjest keerukamaks muutuv struktuur eemaldab meid iga päev oma töö põhimõtete mõistmisest. Kuid kuigi enamik algoritme teeb oma töö, pole keerulised masinad isegi täna ideaalsest kaugel ja teevad vigu. AI edasiarendamiseks on oluline mõista mitte ainult selle tugevusi, vaid haavatavusi. Just sellele on keskendunud suur hulk teadusrühmi, millest ühes töötab MIT Anish atali spetsialist. Alles paar päeva tagasi rääkis ta ajakirjanikele pildi tuvastamise süsteemide levinumatest vigadest.

Tema kolleegid demonstreerisid masinale esemeid ja leidsid, et sageli tajusid üksikuid objekte elektrooniline nägemine valesti. Arvuti võiks helistada pesapallile tassi kohvi ja 3D-prinditud kilpkonnale armee masina. Rühm on juba kogunud umbes 200 üksust, mis on eksitavad algoritmid.

Image
Image

Tehisintellekt keskendus objekti tervikuna tajumise asemel selle üksikutele parameetritele. AI kipub õppima “täiuslikust” proovist. Vastates nähtustele, ei saa ta alati tavapärasest töötlemisprotsessist loobuda. Selle asemel, et tunnistada oma võimetust pilti töödelda, proovib ta endiselt pilti lugeda ja see viib mõnikord naljakate tulemusteni. Kilpkonna kuju asemel püüdis elektrooniline aju lugeda selle tekstuuri, sarnaselt kamuflaažile. Ligikaudu samal põhjusel pole e-auto autopiloodid veel 100% usaldusväärsed. Autol on raske siluetti näha ja eeldada, et see koosneb eraldi elementidest.

Ja kui lähiaastatel saab mõned puudused kõrvaldada, pole garantii, et häkkerid haavatavust ära ei kasuta. Elektroonikaseadmete häkkerid on tänapäeval peaaegu peamine hirmu põhjus. Väike programmeerijate meeskond ei pääse ainult juurde isiklikule teabele, vaid konfigureerib ka autonoomsed süsteemid, võttes üle kontrolli kolossaalse võimsuse tööriistade üle. Ja siis oleme kõik hädas. Kuid peamine järeldus, mida saab teha, on võib-olla traditsiooniline - te ei peaks kartma autosid, vaid inimesi.

Aleksander Lavrenov

Soovitatav: