Hara internetom, sve je realističniji i postaje ozbiljan problem: Kako prepoznati „dipfejk“?

 
 ≫ 
  • 7

I sama pomisao na koje se sve načine nova tehnologija falsifikovanja ljudskih lica može zloupotrebljavati je zastrašujuća...

Lažni video snimci napravljeni „dipfejk“ (deepfake) tehnologijom postaju sve češći i realnističniji, i postoje ozbiljni razlozi za zabrinutost, piše Guardian.

Šta je „dipfejk“?

Možda ste do sada na internetu već pogledali video snimak na kojem Barak Obama naziva Donalda Trampa „potpunom sramotom“, ili Marka Zukerberga kako se hvali da ima „potpunu kontrolu nad milijardama ukradenih podataka ljudi“? Ili možda video u kojem se Džon Snežni (John Snow) izvinjava zbog neslavnog završetka „Igre Prestola“? Ukoliko je odgovor potvrdan, bili ste žrtva „dipfejk“ trenda. Ono što je fotošop za fotografije, „dipfejk“ tehnologija jeste za video snimke. Radi se o formi veštačke inteligencije koja na postojeće video snimke ugrađuje tuđa lica. Ukoliko želite da stavite nečije reči u usta određenog političara, da glumite u omiljenom filmu ili da plešete kao profesionalac, sada postoji način da to falsifikujete.

Čemu služi?

Više od 15.000 lažnih videa pronađeno je na internetu u septembru 2019, skoro duplo više u odnosu na početak godine. U ogromnom broju slučajeva (96%) u pitanju su pornografski video fajlovi, a 99 odsto lažnih, mapiranih lica bile su ženske javne ličnosti, ili porno zvezde. S obzirom na to da nove tehnologije omogućavaju čak i nekvalifikovanim osobama da uz pregršt dostupnih fotografija prave lažne video snimke, oni će se verovatno proširiti.

Da li se radi samo o video zapisima?

„Dipfejk“ tehnologija može stvoriti i veoma uverljive fotografije, kao i zvukove. Veoma verne imitacije glasova javnih ličnosti uveliko se koriste. Prošlog marta, šef britanskog ogranka jedne nemačke energetske kompanije uplatio je blizu 200.000 funti na račun u Mađarskoj, nakon što mu je telefonom tako naređeno od strane osobe koja je nedvosmisleno zvučala kao generalni direktor ove kompanije. U kompaniji tvrde da je u pitanju bio „dipfejk“ glas, ali dokazi još uvek nisu jasni. Slične zloupotrebe dešavale su se i posredstvom lažnih glasovnih poruka preko „WhatsApp-a“.

Kako se prave?

Potrebno je nekoliko koraka kako bi se napravio lažni video snimak. Postupak se svodi na enkodovanje velikog broja fotografija lica osobe koja se nalazi na originalnom video snimku, i lica osobe čije lice je potrebno postaviti na snimak. Enkoder pronalazi sličnosti i razlike između lica dveju osoba, i kompresuje ih. Potom na scenu stupa dekoder koji „rekonstruiše“ kompresovane slike, frejm po frejm, kako bi se napravio verodostojni i uverljivi falsifikat.

Drugi metod je korišćenje GAN mreže (Generative adversarial network) koja postavlja dva AI (veštačka inteligencija) algoritma da rade jedan protiv drugog. Prvi algoritam – generator, stvara šum u formi fotografije. Ovakva sintetička fotografija se dodaje čitavom nizu stvarnih slika - nekih poznatih ličnosti, recimo, koje se dodaju u drugi AI algoritam - diskriminator. U početku, sintetičke fotografije neće mnogo podsećati na lica, ali ako se ovaj postupak ponovi više puta, generator će početi da proizvodi potpuno realistična lica.

Ko se bavi pravljenjem „dipfejk-ova“ ?

Svi - od akademskih i industrijskih istraživača, do amatera entuzijasta i studija za vizualne efekte, kao i producenata pornografskog sadržaja. Čak se i vlade bave ovom tehnologijom, kao deo svojih mrežnih strategija za diskreditovanje politički nepodobnih pojedinaca ili grupa.

Koliko je tehnički zahtevno?

Teško je napraviti dobar „dipfejk“ sadržaj na standardnom, kućnom računaru. Koriste se veoma moćni računari sa jakim grafičkim procesorima. Potrebna je, takođe, i stručnost, kao i iskustvo. Na raspolaganju je mnoštvo alata koji pomažu ljudima prilikom pravljenja „dipfejk-ova“, a mnoge firme nude svoje usluge kako bi to uradile umesto vas.

Kako da prepoznate „dipfejk“?

Prepoznavanje falsifikovanih video snimaka postaje sve teže, jer tehnologija napreduje. Tokom 2018. godine američki istraživači su otkrili da lica rađena u „dipfejk“ tehnologiji ne trepću prirodno. To nije iznenađujuće, jer fotografije u ogromnom broju slučajeva prikazuju ljude otvorenih očiju, pa algoritmi nikada ne nauče da trepću. Međutim, i ovaj nedostatak se otklanja, kao i uvek - svaka slabost ili nedostatak brzo se ispravi.

Nešto manje kvalitetne „dipfejk“ sadržaje lakše je uočiti. Sinhronizacija usana može biti loša. Može doći i do neprirodnog prelamanja slike po ivicama lica. Fini detalji, kao što su kosa, posebno su teški za kloniranje. Loše kompresovan nakit, kao i zubi, odnosno neprirodno osvetljenje takođe su putokazi ka falsifikatima.

Vlade, univerziteti i tehnološke firme finansiraju istraživanja kako bi prepoznali „dipfejk“ sadržaj. Prošlog meseca otpočelo je prvo takmičenje u otkrivanju „dipfejk-ova“, podržano od strane Facebook-a, Microsoft-a I Amazon-a. Uključuje istraživačke timove iz celog sveta koji se takmiče za nadmoć u otkrivanju lažnog sadržaja.

Postoji li rešenje?

„Dipfejk“ može predstavljati problem u zaista širokom spektru ljudskog delovanja. Ali, ironično, upravo je veštačka inteligencija i rešenje ovog problema. AI već pomaže u pronalaženju lažnih video zapisa, premda i dalje mnogi postojeći sistemi za detekciju imaju određene slabosti: deluju dobro kada su poznate ličnosti u pitanju, jer mogu da koriste javno dostupni materijal, ali se slabije pokazuju kod običnih ljudi. Firme uveliko rade na sistemima detekcije koji će imati zadatak da odmah alarmiraju i označe video kao lažan, čim ga prepoznaju.

(Telegraf.rs/G.S.)

Video: Comtrade System Integracije prvi u regionu koristi naprednu OpenXDR platformu

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA