Gmail korisnici na udaru: AI noćna mora postaje stvarnost - za ovo nismo spremni

Vreme čitanja: oko 3 min.
Foto: Shutterstock

Korisnici najpopularnijih email servisa kao što su Gmail, Outlook i Apple Mail suočavaju se sa novom vrstom pretnje. Stručnjaci za sajber bezbednost već mesecima upozoravaju da će AI napadi i hakovanja značajno porasti tokom ove godine, postajući sve teži za otkrivanje. Ono što je posebno zabrinjavajuće je da ovi napadi neće uključivati samo deepfake tehnologije, već će omogućiti i potpuno samostalno delovanje veštačke inteligencije u izvođenju napada.

Donedavno je ovo zvučalo kao scenario iz naučne fantastike, ali najnoviji dokazi pokazuju da je ova pretnja postala stvarnost koja već danas ugrožava milione korisnika širom sveta, uključujući i našu zemlju.

Nedavni izveštaj kompanije Symantec donosi uznemirujuće dokaze ove nove realnosti. Njihov tim je demonstrirao kako novi AI agent, poznat kao "Operator", može samostalno izvesti kompletan phishing napad. Ovi agenti nisu samo pasivni pomoćnici koji generišu tekst - oni imaju sposobnost interakcije sa veb stranicama i mogu obavljati složene zadatke bez ljudskog nadzora.

Za razliku od konvencionalnih alata veštačke inteligencije koji su uglavnom služili kao podrška hakerima, ovi novi agenti mogu samostalno planirati i izvršavati napade od početka do kraja. Iako je trenutna demonstracija relativno jednostavna, tempo razvoja ove tehnologije ukazuje da će sofisticiraniji napadi uslediti vrlo brzo.

Zabrinjavajuća lakoća zaobilaženja bezbednosnih sistema

Možda najalarmantniji aspekt ovih novih AI agenata je njihova sposobnost da zaobiđu postojeće bezbednosne mere. U Symantec-ovom eksperimentu, inicijalno odbijanje AI sistema da izvrši potencijalno štetan zadatak lako je prevaziđeno jednostavnom modifikacijom početnog upita.

Još impresivnija je demonstracija sposobnosti AI sistema da izvodi zaključke i predviđanja. U jednom testu, kada agent nije mogao da pronađe email adresu ciljane osobe online, uspešno je izveo zaključak o najverovatnijem formatu adrese na osnovu drugih dostupnih adresa iz iste organizacije.

Ova vrsta napredne logike i zaključivanja ranije je bila ekskluzivna domena ljudskih hakera. Sada je dostupna kroz automatizovane sisteme koji mogu raditi nezavisno, 24 sata dnevno, bez umora i sa minimalnim troškovima.

Istraživači naglašavaju da konkretni AI sistem u pitanju (OpenAI-jev) nije jedinstven u ovom pogledu - iste sposobnosti biće dostupne kroz brojne AI platforme, što znači da će polje potencijalnih napadača biti znatno šire nego ikada ranije.

Posebno zabrinjava upozorenje stručnjaka koji predviđaju da će u bliskoj budućnosti biti moguće jednostavno zadati AI agentu opšti cilj poput "probij odbranu kompanije X" nakon čega će sistem samostalno odrediti i izvršiti optimalne korake za postizanje tog cilja.

Činjenica da su ovi sistemi pokazali efektivnost već prvog dana nakon lansiranja ukazuje na ozbiljnost pretnje koja će se samo povećavati sa razvojem tehnologije.

Paralelno sa ovim otkrićem, Microsoft je objavio izveštaj o novoj vrsti phishing napada poznatoj kao "Microsoft Copilot Spoofing". Ova tehnika iskorišćava nedostatak znanja korisnika o pravilnoj upotrebi AI asistenata, što povećava šanse uspešnosti napada.

Posebnu opasnost predstavlja i najnoviji trend razvoja otvorenog koda za lokalne AI modele. Kompanija Tenable upozorava na potencijalne zloupotrebe DeepSeek lokalnih modela, kao što su DeepSeek V3 i DeepSeek R1, koji omogućavaju kreiranje zlonamernog softvera bez ikakvih etičkih ograničenja.

U testovima, ovi modeli su već pokazali sposobnost generisanja funkcionalne ransomware i keylogger skripte, što predstavlja direktnu pretnju za korisnike koji nisu adekvatno zaštićeni.

Stručnjaci saglasno ističu da tradicionalne bezbednosne mere više nisu dovoljne. Nova era sajber bezbednosti zahteva integrisani pristup koji tretira AI agente kao potencijalne identitete unutar sistema, sa jasno definisanim nivoom pristupa, monitoringom i politikama koje sprečavaju zloupotrebu.

Organizacije moraju implementirati robusne bezbednosne kontrole koje polaze od pretpostavke da će AI biti korišćen protiv njih. To podrazumeva kombinaciju naprednih tehnologija za detekciju anomalija u ponašanju sa proaktivnim bezbednosnim merama koje ograničavaju koje informacije su dostupne potencijalnim napadačima.

Baš kao što ne možemo sprečiti napadače da manipulišu ljudima kroz socijalni inženjering, ne možemo ih zaustaviti ni u manipulaciji AI agenata. Ključ je u ograničavanju onoga što ti agenti mogu učiniti bez nadzora i implementaciji višeslojne zaštite.

Za obične korisnike email servisa, ovo znači povećan oprez pri svakoj digitalnoj interakciji, redovno ažuriranje bezbednosnih mera i usvajanje principa višefaktorske autentifikacije za sve važnije online naloge.

Iako tehnološki giganti kao što su Google, Microsoft i Apple rade na unapređenju zaštitnih sistema svojih email servisa, činjenica je da trenutno nismo potpuno spremni za izazove koje donosi ova nova generacija AI napada.

(Telegraf.rs)