Milliseid Närvivõrkude Ohtusid Me Alahindame? - Alternatiivne Vaade

Sisukord:

Milliseid Närvivõrkude Ohtusid Me Alahindame? - Alternatiivne Vaade
Milliseid Närvivõrkude Ohtusid Me Alahindame? - Alternatiivne Vaade

Video: Milliseid Närvivõrkude Ohtusid Me Alahindame? - Alternatiivne Vaade

Video: Milliseid Närvivõrkude Ohtusid Me Alahindame? - Alternatiivne Vaade
Video: Veeohutusfilm: "Peata oma sõbrad" 2024, Mai
Anonim

Kas olete kunagi kohtunud tänaval inimesega, kes oleks teiega üks-ühele sarnane? Riided, nägu, kõnnak, suhtlemisviis, harjumused on teiega täiesti identsed. See on nagu printerisse skaneerimine ja printimine. Kõlab natuke jube, kas pole? Kujutage nüüd ette, et olete näinud videot, kus selline inimene räägib midagi enda kohta. Parimal juhul proovite mäletada, kui kõndisite nii, et te ei mäletanud midagi, kuid võite seda öelda kaamera abil. See kõik kõlab küll lihtsa arutluskäiguna, kuid tehnoloogia on selliste inimeste loomiseks juba väga lähedal. Need on juba olemas, kuid varsti on neid veel palju.

Kust võlts tuleb?

Nüüd on juba liiga palju asju, mida tavaliselt nimetatakse võltsinguteks. Neid on igal pool. Neid võib leida fotodelt, uudistest, kaupade tootmisest ja infoteenustest. Lihtsam on öelda, kus puuduvad selle sõnaga kaasnevad nähtused. Kuigi saate nendega võidelda. Saate uurida foto päritolu, kontrollida võltsitud kaubamärgiga toote eristatavaid omadusi ja kontrollida uudiseid uuesti. Kuigi uudised on eraldi teema.

Tänapäeval ei taha sisutarbija oodata ja nõuab selle loojalt viivitamatut tootmist, mõnikord ei hooli ta isegi kvaliteedist, peamine on kiire. Siin tekivad olukorrad, kui keegi midagi ütles, ja teised, ilma seda kontrollimata, võtsid selle oma veebisaitidelt ja ajalehtedelt ära. Mõnel juhul võtab see pall tagasi keerutamise ja tõestamise, et see kõik oli valesti, võtab kaua aega.

Pole mõtet selgitada, miks see kõik tehtud on. Ühelt poolt on neid, kes tahavad olukorra üle lihtsalt naerda, teiselt poolt neid, kes tegelikult ei teadnud, et nad eksisid. Eraldi koha, umbes keskel, hõivavad need, kellele on kasumit teenida. Need võivad olla mõjuhuvid erinevatel tasanditel, sealhulgas poliitilisel tasandil. Mõnikord on see kasumi teenimise eesmärk. Näiteks börsil paanika külvamine ja väärtpaberitega kasumlike tehingute tegemine. Kuid sageli on selle põhjuseks vaenulikkus inimese (ettevõtte, toote jms) suhtes, et teda alandada. Lihtne näide on filmi või asutuse reitingute "langemine", mis pole kellelegi soovitav. Muidugi nõuab see armee neid, kes lähevad ja ei meeldi (mõnikord isegi robotid), kuid see on juba teine lugu.

Mis on sügav õppimine?

Reklaamvideo:

Viimasel ajal kõlab see termin üha sagedamini. Mõnikord pole ta isegi juhtumiga seotud ja on segamini millegi muuga. Nii et tarkvaratoode tundub muljetavaldavam.

Ärge arvake, et masinõppe kontseptsioon ja põhiprintsiibid ilmusid alles mõni aasta tagasi. Tegelikult on nad nii mitu aastat vanad, et paljud meist polnud veel siis sündinud. Süvaõppe süsteemide aluspõhimõtted ja nende töö matemaatilised mudelid olid teada juba eelmise sajandi 80ndatel.

Omal ajal polnud neil ühe olulise komponendi puudumise tõttu nii palju mõtet. See oli suur arvutusvõimsus. Alles 2000. aastate keskel ilmusid süsteemid, mis aitavad selles suunas töötada ja võimaldavad kogu vajaliku teabe arvutamist. Nüüd on masinad veelgi arenenud ja mõned masina nägemise, hääle tajumise ja mõned teised süsteemid töötavad nii tõhusalt, et ületavad mõnikord isegi inimese võimalusi. Ehkki neid ei ole veel "vangistatud" vastutustundlikes suundades, muutes need inimvõimetele täienduseks, säilitades samas kontrolli nende üle.

Image
Image

Mis on Deepfake? Millal Deepfake ilmus?

Lihtne on arvata, et Deepfake on väike näidend süvaõppega seotud sõnadest ja väga võltsingutest, millest ma eespool rääkisin. See tähendab, et Deepfake peaks võltsimise viima uuele tasemele ja laadima inimese selles keerulises ettevõttes maha, võimaldades tal võlts sisu luua energiat kulutamata.

Esiteks puudutavad sellised võltsingud videot. See tähendab, et iga inimene saab istuda kaamera ees, midagi öelda ja tema nägu asendatakse teise inimesega. See tundub hirmutav, sest tegelikult peate lihtsalt kinni püüdma inimese põhiliigutused ja võltsimist on lihtsalt võimatu eristada. Vaatame, kuidas see kõik alguse sai.

Esimese generatiivse võistlusvõrgustiku lõi Stanfordi ülikooli tudeng. See juhtus 2014. aastal ja õpilase nimi oli Ian Goodfellow. Tegelikult lõi ta kaks närvivõrku üksteise vastu, millest üks tegeles inimnägude genereerimisega, ja teine analüüsis neid ja rääkis sarnaselt või mitte. Nii treenisid nad üksteist ja ühel päeval hakkas teine närvivõrk segadusse minema ja võtsid loodud pildid reaalseks. Just see üha keerukam süsteem sünnitab Deepfake'i.

Nüüd on Deepfake'i idee üks peamisi edendajaid Hao Li. Ta ei tee mitte ainult seda, vaid ka paljusid teisi. Selle eest pälvis ta korduvalt erinevaid auhindu, sealhulgas mitteametlikke. Muide, ta on üks neist, keda tuleks tänada animoji ilmumise eest iPhone X-s. Huvi korral saate sellega täpsemalt tutvuda tema veebisaidil. Täna pole ta arutelu peamine teema.

Me mäletasime teda ainult seetõttu, et Davosis toimunud maailma majandusfoorumil näitas ta oma rakendust, mis võimaldab teil asendada kaamera ees istuva inimese nägu muu näoga. Eelkõige näitas ta, kuidas süsteem töötab Leonardo DiCaprio, Will Smithi ja teiste kuulsate inimeste nägude näitel.

See tundub natuke jube. Ühest küljest saate imetleda ainult tänapäevaseid tehnoloogiaid, mis võimaldavad teil skaneerida nägu, vahetada see liikvel olles ja luua uus pilt. Kõik see võtab sekundi jagu ja süsteem isegi ei aeglustu. See tähendab, et see võimaldab mitte ainult töödeldud videot töödelda ja nägu asendada, vaid ka osaleda sellises tegelaskujus mingis reaalajas videosuhtluses.

Deepfake'i oht. Kuidas muuta video nägu?

Võite rääkida nii palju kui soovite, et seda tehnoloogiat oleks vaja, see on väga lahe ja te ei pea laimu tegema. Võite isegi minna äärmusesse ja hakata rääkima, et see on äge vanafag, kes lihtsalt kardab kõike uut, kuid ohtudest on rohkem kasu kui kasu.

Sellise tehnoloogia abil, eriti kui see on avatud lähtekoodiga, on kõigil võimalik surfata ja salvestada ükskõik millist videot. Pole paha, kui see lihtsalt kellegi au ja väärikust riivab, veelgi hullem, kui see on avaldus, mis on tehtud tähtsa inimese nimel. Näiteks salvestades Tim Cooki nimel vaid 30–40 sekundit pikkust videot, saate Apple'i juhitud alla viia peaaegu kogu USA IT-sfääri. Aktsiaturgu tabatakse nii tugevalt, et see tekitab investorites paanikat. Selle tulemusel kaotavad tuhanded inimesed miljardeid dollareid.

Kõigile, kellele see raha teenimise viis ei meeldi, öeldakse, et see on see, mida nad vajavad, laske neil taime juurde minna. Kuid kõige kurvema stsenaariumi kohaselt pärast seda taime enam ei ole. Lisaks on nurjumine, et saame inimese, kes petab väärtpaberite väärtuse kõikumisi. Piisab lihtsalt nende õigeaegsest ostmisest ja müümisest.

Olukord võib olla veelgi hullem, kui "jokker" räägib suure riigi juhi nimel. Muidugi selgub siis kõik, kuid selle aja jooksul saate teha palju ebameeldivaid asju. Sellel taustal oleks täiskasvanute filmis lihtsalt kuulsuse näo asendamine näitlejaga süütu jant.

Selliste tehnoloogiate puhul on peamine asi skannimine ja siis on see tehnoloogia küsimus. Sõna kõige otsesemas tähenduses
Selliste tehnoloogiate puhul on peamine asi skannimine ja siis on see tehnoloogia küsimus. Sõna kõige otsesemas tähenduses

Selliste tehnoloogiate puhul on peamine asi skannimine ja siis on see tehnoloogia küsimus. Sõna kõige otsesemas tähenduses.

Võite ette kujutada vastupidist olukorda, kui päris inimene ütleb midagi ja siis kinnitab kõigile, et ta oli raamitud. Kuidas selles olukorras olla, pole ka väga selge. See tekitab uudistevoogudes nii palju segadust, et seda pole mõnes muus allikas võimalik lihtsalt üle kontrollida. Selle tulemusel jääb üldiselt ebaselgeks, mis on selles maailmas tõsi ja mis vale. Filmidest tuleb pilt sünge tuleviku kohta, nagu näiteks Surrogates või Terminaator, kus T-1000 tutvustas end teiste inimestena ja kutsus muu hulgas John adopti oma adopteeritud ema nimel.

Nüüd ma ei räägi isegi veel ühest kuritarvitamisest, mis võimaldab valeandmeid koguda. Selle taustal muutub mänguasja kogu lõbus liiga kahtlaseks.

Kuidas Deepfake tuvastada?

Probleem pole isegi selles, et sellised süsteemid tuleks keelata, vaid selles, et see pole enam võimalik. Need on juba olemas ja tehnoloogia arendamine, sealhulgas nägude lugemine, on viinud nende ilmumiseni ja avatud lähtekoodiga levikuni. Isegi kui kujutame ette, et praegusel kujul süsteem lakkab eksisteerimast, peame mõistma, et see luuakse uuesti. Nad õpetavad veel kord närvivõrke üksteisega töötama ja ongi kõik.

Siiani pole kõik nii hirmutav ja võltsingut saab palja silmaga sõna otseses mõttes tuvastada. Pilt on sarnane, kuid üsna kare. Lisaks on tal mõnikord segamisprobleeme, eriti näo servade ümber. Kuid miski ei seisa paigal ja seda pole veel keeruline edasi arendada. Seesama Hao Li on kindel, et selleks kulub kõigest mõni kuu ja selleks, et luua “maske”, mida isegi arvuti ei suuda eristada, kulub veel mitu aastat. Pärast seda tagasi ei pöörata.

Ühest küljest saab selle eest kaitsta YouTube'i ja Facebooki juba loodud algoritm. Muide, viimane avas isegi konkursi äratundmistehnoloogia arendamiseks - Deepfake Detection Challenge ("Sügavikute tuvastamise ülesanne"). Selle võistluse auhinnafond on 10 miljonit dollarit. Konkurss on juba käimas ja lõppeb 2020. aasta märtsis. Teil on veel aega osalemiseks.

Näo asendamine videos ei ole enam probleem
Näo asendamine videos ei ole enam probleem

Näo asendamine videos ei ole enam probleem.

Võib-olla on see suuremeelsus tingitud võltsvideost koos Mark Zuckerbergiga. Kui need kaks on omavahel seotud, pole sellise konkursi ilmumine üllatav.

Kui asendatud nägu vastab täielikult originaalile, on spetsiaalse närvivõrgu esindatud vastujõud jõuetu. Sel juhul peab ta saavutama minimaalsed erinevused näoilmetes, liigutustes ja kõneviisis. Kuulsate inimeste puhul lahendatakse selline probleem videoteenuse tasemel, kuna sama YouTube teab, kuidas tavaline Donald Trump liigub. Kui tegemist on vähem tuntud inimesega, muutub see keerukamaks. Ehkki seda saab tõestada ka siis, kui asetate ta kaamera ette ja vestlete juhuslikult, kui närvivõrk tema liigutusi analüüsib. See osutub sõrmejälje uurimiseks sarnaseks, kuid nagu näeme, põhjustab see jälle tarbetuid raskusi.

Videokontrolli süsteemide kaameratesse õmblemisest võib samuti mööda hiilida. Võite panna kaamera pildistatud video tähistama ja teha selgeks, et seda ei filmitud eraldi rakenduse kaudu ega töödelda eriprogrammis. Aga kuidas on lood äsja töödeldud videotega? Näiteks toimetatud intervjuu. Selle tulemusel saame video, milles algset võtit enam pole.

Mõni meem lõpus
Mõni meem lõpus

Mõni meem lõpus.

Kas võib öelda, et oleme joonistanud ühe tumeda tuleviku stsenaariumi? Üldiselt jah. Kui heade eesmärkide saavutamiseks loodud tehnoloogiad väljuvad kontrolli alt, võib neid leinaga lonkida. Tegelikult on selliste ohtlike tehnoloogiate jaoks palju võimalusi, kuid enamik neist on kaitstud. Näiteks tuumasüntees. Siin on tegemist koodiga, mida igaüks saab.

Kirjutage kommentaaridesse, kuidas näete kaitset võltsimise vastu, arvestades, et maskeerimissüsteem suutis muuta maskid täiesti identseteks originaalnägudega. Ja kuna need on videolõigul, ei saa te neile isegi sügavuse ja helitugevuse tuvastamist rakendada. Lisaks eeldame, et hävitada saab mis tahes pildi manustatud koodi ja võtit. Nagu öeldakse, oleks mille jaoks. Nüüd saame arutada, kõik sissejuhatav on olemas.

Artem Sutyagin

Soovitatav: