Pet načina na koje kriminalci koriste veštačku inteligenciju: Kako se zaštititi

   
Čitanje: oko 2 min.
  • 0

Veštačka inteligencija (AI) donela je značajan porast produktivnosti – čak i u kriminalnom svetu. Generativni AI sada omogućava zločincima da rade efikasnije i na međunarodnom nivou, kaže Vićenco Ćiankaglini, viši istraživač pretnji u kompaniji Trend Micro.

Prošle godine zabeležen je uspon i pad WormGPT-a, AI jezičkog modela kreiranog za pomoć hakerima bez etičkih pravila ili ograničenja. Nakon što je privukao pažnju medija, njegovi tvorci su najavili gašenje modela. Sada se kriminalci oslanjaju na trikove sa postojećim alatima koji pouzdano rade.

Evo pet glavnih pretnji i načina na koje se ljudi mogu zaštititi:

1. Fišing

Fišing je tehnika kojom kriminalci pokušavaju da prevare ljude da otkriju osetljive informacije, poput lozinki i brojeva kreditnih kartica. Generativni AI se koristi za kreiranje fišing poruka koje zv11uče kao da ih je napisao izvorni govornik. Alati poput ChatGPT-a omogućavaju kriminalcima da prevode i poboljšaju svoje poruke, čineći ih verodostojnijim.

Kako se zaštititi: Budite oprezni sa e-mailovima i porukama koje zahtevaju lične informacije. Proverite adrese pošiljalaca i izbegavajte klikanje na sumnjive linkove. Koristite dvofaktorsku autentifikaciju za dodatnu sigurnost.

2. Deepfake audio prevare

Deepfake tehnologija omogućava kriminalcima da kreiraju sintetičke audio zapise koji zvuče kao stvarne osobe. Kriminalci mogu koristiti ove tehnologije za prevare, kao što je lažno predstavljanje kao član porodice ili šef kako bi iznudili novac.

Kako se zaštititi: Uspostavite tajne reči sa članovima porodice koje mogu potvrditi njihov identitet u hitnim situacijama. Budite sumnjičavi prema neočekivanim zahtevima za novcem ili informacijama.

3. Zaobilaženje verifikacionih sistema

Kriminalci koriste deepfake tehnologiju za zaobilaženje verifikacionih sistema koje koriste banke i kripto berze. Aplikacije koje koriste lažne ili ukradene identifikacione dokumente u kombinaciji sa deepfake slikama mogu prevariti ove sisteme.

Kako se zaštititi: Kompanije bi trebalo da unaprede svoje verifikacione procese, uključujući korišćenje biometrijskih podataka i naprednih algoritama za detekciju deepfake tehnologije. Korisnici bi trebalo da budu svesni ovih pretnji i da prijavljuju sumnjive aktivnosti.

4. Jailbreak-as-a-service

Jailbreak usluge omogućavaju kriminalcima da zaobiđu sigurnosne mehanizme AI sistema. Ovi servisi pružaju anonimni pristup jezičkim modelima i jailbreak promptima koji omogućavaju generisanje izlaza koji krše politiku bezbednosti AI sistema.

Kako se zaštititi: AI kompanije treba da kontinuirano ažuriraju svoje sigurnosne mehanizme kako bi sprečile zloupotrebu. Korisnici bi trebalo da budu svesni potencijalnih pretnji i da izbegavaju korišćenje sumnjivih servisa.

5. Doxxing i nadzor

AI jezički modeli mogu se koristiti za doxxing, odnosno otkrivanje privatnih informacija o nekome na mreži. Ovi modeli su obučeni na velikim količinama internet podataka i mogu zaključiti osetljive informacije iz tekstova koje je žrtva napisala.

Kako se zaštititi: Pojedinci bi trebalo da pažljivo razmisle o tome šta dele na mreži i da li su spremni da njihove lične informacije budu korišćene u jezičkim modelima. Kompanije bi trebalo da ulažu u zaštitu podataka i sigurnosne mere kako bi se suprotstavile ovim pretnjama.

(Telegraf.rs)

Video: Vujanić: U Srbiji je propisano da odeća ne sme da ometa bezbednost upravljanja

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA