
Veselin Jevrosimović: Lov na prevare
Verovatno ste primetili jednu od onih reklama za mobilne aplikacije pomoću kojih možete svoje lice da ubacite u video klip umesto poznate glumice ili glumca. Radi se programima koji koriste algoritme za prepoznavanja oblika i likova. Budući da treba da funkcionišu na relativno ograničenom hardveru telefona, rezultati koje proizvode su zabavni, ali ne obavezno i realistični.
Napredne verzije ovakvih rešenja, pojačane veštačkom inteligencijom i tehnologijom mašinskog učenja, pokrenute na moćnim računarima, mogu da stvore privid koji će zavarati čak i najiskusnije oko.
Ova vrsta lažnih video, audio i foto snimaka zove se dipfejk (eng. "deepfake"). Naziv je izvedenica od pojmova "deep learning" (eng. duboko učenje, fenomen koji opisuje sposobnost računara da izvode zaključke i uče na osnovu analize podataka) i "fake" (eng. lažno). U poslednje vreme, dipfejk je dospeo u fokus medija.

Mogućnost kreiranja lažnih vesti, finansijske prevare, ucene slavnih ličnosti i podmetanja iz osvete samo su neke od negativnih posledica. Velike IT kompanije poput Majkrosofta, Tvitera i Fejsbuka, ali i univerziteti i državne institucije širom sveta, vredno rade na smišljanju načina za otkrivanje ovako montiranih snimaka.
Premda još uvek nisu savršeni, sistemi za detekciju dipfejk sadržaja na internetu iz generacije u generaciju postaju sve efikasniji. Društvene mreže na različite načine reaguju na objave za koje se utvrdi da predstavljaju lažne i montirane informacije.
Neki sistemi automatski brišu ovakve postove, dok ih drugi obeležavaju kao potencijalno lažne kako bi upozorili korisnike. Mnoge države uvode zakonsku regulativu koja treba da uredi ovu oblast i spreči zloupotrebe.
U slučaju bezazlenih montaža, po pravilu su kreatori obavezni da jasno i nedvosmisleno naznače da se radi o lažnim snimcima. Bilo kakav pokušaj prevare strogo se kažnjava, a postoji i inicijativa da se na globalnom nivou dipfejk proglasi za specifičnu vrstu zločina.

Kako tehnologija bude napredovala, veštačka inteligencija će sve više i češće biti korišćena u zlonamerne svrhe, na sličan način kako se to u prošlosti dešavalo sa svakim novim rešenjem. Jednako tako će eksperti sa ove strane zakona nastaviti da razvijaju sisteme za zaštitu podataka, privatnosti korisnika i sigurnosti poslovnih mreža.
Igra mačke i miša biće nastavljena u nedogled, ili barem dok se ljudska priroda iz korena ne promeni.
(Telegraf.rs)
Video: Preživeti AI revoluciju: Mark Brigs ekskluzivno za Telegraf.rs o budućnosti novinarstva
Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.