Sa Tead Kohe, Et See On Porno. Kas Arvuti Saab Aru? - Alternatiivne Vaade

Sisukord:

Sa Tead Kohe, Et See On Porno. Kas Arvuti Saab Aru? - Alternatiivne Vaade
Sa Tead Kohe, Et See On Porno. Kas Arvuti Saab Aru? - Alternatiivne Vaade

Video: Sa Tead Kohe, Et See On Porno. Kas Arvuti Saab Aru? - Alternatiivne Vaade

Video: Sa Tead Kohe, Et See On Porno. Kas Arvuti Saab Aru? - Alternatiivne Vaade
Video: QUIT PORN 2024, September
Anonim

Tumblr teatas eelmise kuu alguses, et keelab porno. Kui uus sisupoliitika jõustus, umbes kaks nädalat hiljem - 17. detsembril - ilmnes, et probleeme on. Pärast tehisintellekti süsteemi juurutamist, mis pidi keelama kogu saidil oleva pornograafia, liputas see ekslikult süütuid postitusi 455,4 miljoni saidi ajaveebis 168,2 miljardi postituse hulgas: vaasid, nõiad, kalad ja kõik see jazz.

Tehisintellekti pornograafia

Kuigi on ebaselge, millist automaatset filtrit Tumblr kasutas või lõi - oma ettevõte ei vastanud selleteemalistele järelepärimistele - on selge, et sotsiaalne võrgustik on takerdunud omaenda poliitika ja tehnoloogia vahele. Näiteks on saidi ebajärjekindel hoiak näiteks rinnanibusid näitavatel naistel ja kunstilise alastusega seotud kontekstiotsuste osas, mis näitavad, et isegi Tumblr ei tea, mida oma platvormil keelata. Kuidas saab sagedane ettevõte kindlaks teha, mida ta rõvedaks peab?

Esiteks on riskantse sisu blokeerimine keeruline, kuna on raske algusest peale määratleda, mis see on. Roppuse määratlus on rohkem kui sada aastat vana karupüüdur, 1896. aastal võttis USA esimest korda vastu roppusi reguleerivaid seadusi. 1964. aastal otsustas Jacobellis vs. Ohio, kas Ohio võiks keelata Louis Malle filmi linastumise, välja kõrgeim kohus, mis on tänapäeval ilmselt kõige kuulsam hardcore pornograafia määratlus: „Ma ei püüa tänapäeval seda laadi materjali täpsemalt määratleda, mis, nagu ma aru saan, lisatakse see sõna-sõnalt kirjeldusse; ja võib-olla ei suuda ma seda kunagi arusaadavaks teha,”ütles kohtunik Potter Stewart. "Kuid ma tean, mis see on, kui ma seda näen, ja selle juhtumiga seotud film seda pole."

Masinõppe algoritmidel on sama probleem. Täpselt seda probleemi üritab lahendada spetsialiseeritud tehisintellekti tehnoloogiat müüva ettevõtte Picnix tegevjuht Brian Delorge. Üks nende toodetest, Iris, on kliendirakendus pornograafia tuvastamiseks, et aidata inimesi, nagu Delorge ütleb, "kes ei taha oma ellu pornot." Ta märgib, et porno eriline probleem on see, et see võib olla ükskõik, hunnik erinevaid asju - ja piltidel, mis pole pornograafilised, võivad olla sarnased elemendid. Rannapeo pilt võidakse blokeerida mitte seetõttu, et sellel oleks rohkem nahka kui kontorifotol, vaid sellepärast, et see on servas. "Seetõttu on pildi tuvastamise algoritmi koolitamine väga keeruline, et teha kõike korraga," ütleb DeLorge."Kui määratlus muutub inimestele raskeks, on ka arvutil raskusi." Kui inimesed ei suuda kokku leppida, mis porno on ja mis mitte, kas siis võib arvuti isegi loota, et saab selle erinevuse teada?

AI õpetamiseks pornot tuvastama tuleb kõigepealt pornot toita. Palju pornograafiat. Kust seda saada? Noh, esimene asi, mida inimesed teevad, on allalaadimine hunnik vidosid Pornhubist, XVideos, ütleb Dan Shapiro, idufirma Lemay.ai asutaja, mis loob oma klientidele AI-filtrid. "See on üks neist õigusliku olemuse hallidest piirkondadest - näiteks kui õppida teiste inimeste sisust, kas see kuulub teile?"

Pärast seda, kui programmeerijad laadisid alla tonni pornot, lõikasid nad videost välja pornograafilise sisustuse, et veenduda, et nende kasutatav materjal ei blokeeri pitsa kohaletoimetamise kutte. Platvormid maksavad inimestele, enamasti väljaspool USA-d, sellise sisu sildistamiseks; töö on madalapalgaline ja igav, nagu näiteks captchasse sisenemine. Nad lihtsalt istuvad ja märgivad: see on porno, see on see. Peate natuke filtreerima, sest kogu porno tuleb välja sildiga. Õppimine on parem, kui kasutate mitte ainult fotosid, vaid ka suuri andmeproove.

Reklaamvideo:

"Sageli ei pea te lihtsalt pornot filtreerima, vaid pigem kaasnevat materjali," ütleb Shapiro. "Nagu võltsprofiilid tüdruku foto ja telefoniga." Ta peab silmas seksitöötajaid, kes otsivad kliente, kuid see võib olla midagi, mis pole täiesti seaduslik. "See pole porno, aga see on selline asi, mida te ei soovi oma platvormil vaadata, eks?" Hea automatiseeritud moderaator õpib miljonitest - kui mitte kümnetest miljonitest - proovisisu, mis võib säästa tonni inimtunde.

"Saate seda võrrelda lapse ja täiskasvanu erinevusega," ütleb Matt Zeiler, ettevõtte Clarionai tegevjuht ja asutaja, kes on arvutinägemise idufirma, mis teeb sellist piltide filtreerimist äriklientidele. “Võin teile kindlalt öelda - paar kuud tagasi sündis meil laps. Nad ei tea maailmast midagi, kõik on nende jaoks uus. " Peate lapsele (algoritmile) näitama palju asju, et ta saaks millestki aru. Miljonid ja miljonid näited. Kuid täiskasvanuna - kui oleme loonud maailma kohta nii palju konteksti ja mõistnud, kuidas see toimib -, saame kõigest paarist näitest midagi uut õppida. " (Jah, AI õpetamine täiskasvanutele mõeldud sisu filtreerimiseks on nagu lapsele palju porno näitamine.) Sellised ettevõtted nagu Clarifai kasvab täna kiiresti. Neil on hea andmebaas maailma kohta, nad saavad öelda kasside koertele, alasti riietatud. Zeileri ettevõte kasutab oma mudeleid oma klientide jaoks uute algoritmide koolitamiseks - kuna algne mudel töötleb palju andmeid, vajaksid isikupärastatud versioonid töötamiseks ainult uusi andmekogumeid.

Kuid algoritmil on keeruline seda õigeks saada. Ilmselt pornograafilise sisuga saab see hästi hakkama; kuid klassifikaator võib aluspesu kuulutuse valesti märkida piiramatuks, kuna pildil on rohkem nahka kui näiteks kontoris. (Bikiinide ja aluspesuga on Zeileri sõnul väga raske). See tähendab, et turundajad peaksid oma töös keskenduma nendele servajuhtumitele, seades esikohale raskesti klassifitseeritavad mudelid.

Mis on kõige raskem osa?

"Anime porn," ütleb Zeiler. "Meie alastusdetektori esimene versioon ei kasutanud hariduse jaoks koomikspornot." Mitu korda sai AI valesti, kuna ei tundnud ära hentai. "Pärast seda, kui me selle nimel kliendi heaks töötasime, süstisime palju tema andmeid mudelisse ja parandasime märkimisväärselt koomiksifiltri täpsust, säilitades samal ajal pärisfotode täpsuse," ütleb Zeiler.

Tehnoloogiat, mida on õpetatud pornot nuhkima, saab kasutada ka muude asjade jaoks. Selle süsteemi taga olevad tehnoloogiad on märkimisväärselt paindlikud. See on rohkem kui anime tissid. Näiteks tähestiku mosaiigi kasutatakse ajalehes laialt automaatse kommentaari moderaatorina. See tarkvara töötab sarnaselt pildiklassifikaatoritega, välja arvatud see, et see sorteerib pigem toksilisuse kui alastuse järgi. (Toksilisust tekstikommentaarides on sama raske kindlaks teha kui piltide pornograafiat.) Facebook kasutab seda tüüpi automaatset filtreerimist enesetappude ja terrorismiga seotud sisu tuvastamiseks ning on püüdnud seda tehnoloogiat kasutada võltsuudiste tuvastamiseks oma massilisel platvormil.

Kõik see sõltub ikkagi inimese juhendamisest; oskame paremini lahendada ebaselgust ja mitmetähenduslikku konteksti. Zeiler väidab, et tema arvates pole tema toode kellegi tööd võtnud. See lahendab Interneti-skaleerimise probleemi. Inimesed treenivad AI-d ikkagi sisu sortimise ja märgistamise teel, et AI saaks seda eristada.

See on modereerimise tulevik: kohandatud ja käivitusvalmis lahendusi, mida pakutakse ettevõtetele, kes tegelevad kogu oma äriga, õpetades üha arenenumatele klassifikaatoritele rohkem andmeid. Nii nagu Stripe ja Square pakuvad väljastpoolt makselahendust ettevõtetele, kes ei soovi neid ise töödelda, teevad ka sellised startupid nagu Clarifai, Picnix ja Lemay.ai võrgus modereerimist.

Dan Shapiro Lemay.ai-st on lootusrikas. „Nagu iga tehnoloogia puhul, on selle leiutamine alles pooleli. Nii et ma ei usu, et ebaõnnestudes anname järele. " Kuid kas AI on kunagi võimeline tegutsema autonoomselt ilma inimese järelevalveta? Ebaselge. "Nuusukausis pole ühtegi meest, kes filtreeriks iga ampsu," ütleb ta. "Selle peal oleva algoritmi treenimiseks peate saama andmeid kõikjalt."

Zeiler seevastu usub, et ühel päeval modelleerib tehisintellekt kõike omaette. Lõpuks vähendatakse inimeste sekkumiste arvu nullini või tehakse vähe jõupingutusi. Järk-järgult muutuvad inimeste pingutused millekski, mida AI praegu teha ei saa, näiteks kõrgetasemelised mõttekäigud, eneseteadvus - kõik, mis inimestel on.

Pornograafia äratundmine on selle osa. Identifitseerimine on inimestele suhteliselt tühine ülesanne, kuid nüansside tuvastamiseks on algoritmi treenimine palju raskem. Samuti on keeruline, osaliselt matemaatiline, keeruline määrata läve määramine juhul, kui filter tähistab pilti pornograafiliseks või mittepornograafiliseks.

Tehisintellekt on ebatäiuslik peegel sellest, kuidas me maailma näeme, just nagu pornograafia peegeldab seda, mis juhtub inimeste vahel, kui nad on üksi. Selles on teatav tõde, kuid täielikku pilti pole.

Ilja Khel

Soovitatav: