Zamislite da vam neko ukrade identitet za 10 sekundi: Deepfake tehnologija postaje zastrašujuće moćna
Jedan od učesnika, koji je učestvovao u eksperimentu, uspeo je da generiše video u kojem je njegovo lice zamenjeno licem Megan Markl za samo 10 sekundi
Na nedavno održanoj DEF CON konferenciji, posetioci su imali priliku da se okušaju u kreiranju deepfake video sadržaja, što je izazvalo značajnu pažnju. U okviru laboratorije AI Village, koju je podržala američka Agencija za napredne istraživačke projekte odbrane (DARPA), učesnici su mogli da kreiraju lažne video snimke u kojima su im lica zamenjena sa poznatim ličnostima, poput Megan Markl.
Iako je kreiranje deepfake video sadržaja postalo neverovatno jednostavno, otkrivanje ovih manipulacija je postalo efikasnije zahvaljujući napretku tehnologije. Tokom eksperimenta, učesnici su koristili alat DeepFaceLive, otvoreni softver koji u realnom vremenu zamenjuje lica na snimcima. Ovi video snimci su potom prošli kroz analizu pomoću SemaFor-a, DARPA-inog alata za otkrivanje deepfake sadržaja, koji koristi višegodišnje istraživanje u cilju prepoznavanja manipulacija na video materijalima.
Jedan od učesnika, koji je učestvovao u eksperimentu, uspeo je da generiše video u kojem je njegovo lice zamenjeno licem Megan Markl za samo 10 sekundi. SemaFor je uspešno identifikovao video kao lažan, što je pokazatelj koliko je napredovala tehnologija za otkrivanje deepfake sadržaja.
Međutim, ovaj eksperiment je takođe ukazao na to koliko lako prevaranti mogu koristiti deepfake tehnologiju za obmanjivanje u realnom vremenu, na primer, tokom video poziva. Prevara u kojoj je osoba koristila deepfake kako bi se predstavila kao finansijski direktor velike kompanije i tako prevarila zaposlenog da prebaci 25 miliona dolara, samo je jedan od primera sve veće upotrebe ove tehnologije u kriminalne svrhe.
Dok deepfake tehnologija napreduje, stručnjaci se nadaju da će alati za otkrivanje ovih manipulacija nastaviti da drže korak, sprečavajući zloupotrebe i zaštitu integriteta digitalnih sadržaja.
(Telegraf.rs)