Otkrivena opasna ranjivost ChatGPT-a: "Možda čak neće upozoriti korisnika"

Vreme čitanja: oko 2 min.

Ovo je prva studija koja pokazuje da veliki jezički modeli mogu biti eksploatisani za napade na komercijalne online aplikacije

Foto: Milosz Kubiak / Shutterstock.com

Bezbednosne slabosti velikih jezičkih modela kao što je GPT mogle bi da budu nova tačka napada za sajber kriminalce, pokazuje najnovija studija. Istraživači su uspeli da manipulišu ChatGPT-jem i još pet komercijalnih AI alata kako bi generisali maliciozni kod koji može izazvati curenje osetljivih informacija iz baza podataka, brisanje ključnih podataka ili poremećaj cloud servisa.

Ksen Sijetan Peng, koji je bio koautor studije na Univerzitetu u Šefildu u Velikoj Britaniji, istakao je da je ovo prva studija svoje vrste. "Ovo je prvi put da se demonstrira kako ranjivosti velikih jezičkih modela uopšte mogu biti iskorišćene kao put za napad na online komercijalne aplikacije", rekao je Peng.

Istraživanje je fokusirano na šest AI servisa koji mogu prevesti ljudska pitanja u SQL programski jezik, koji se često koristi za upite u računarskim bazama podataka. Ovi "tekst-u-SQL" sistemi koji se oslanjaju na veštačku inteligenciju postaju sve popularniji. Čak i samostalni AI četbotovi poput OpenAI-ovog ChatGPT-a mogu generisati SQL kod koji se može implementirati u takve baze podataka.

"Kod koji generišu ovi alati može biti opasan, ali ovi alati možda neće ni upozoriti korisnika", kaže Peng.

Istraživači su pokazali kako ovaj AI-generisani kod može biti modifikovan da uključuje instrukcije koje dovode do curenja informacija iz baza podataka, što bi moglo otvoriti vrata budućim sajber napadima. Moguće je i da očiste sistemske baze podataka koje čuvaju ovlašćene korisničke profile, uključujući imena i lozinke, ili da preplave cloud servere koji hostuju baze podataka putem napada odbijanja servisa.

Otkrića su prijavljena OpenAI-u, a dodatna testiranja sugerišu da je kompanija sada ažurirala ChatGPT da eliminiše problem sa tekst-u-SQL funkcijama.

Peng zaključuje da sistemi zasnovani na velikim jezičkim modelima izgleda da su lakše manipulisani za stvaranje malicioznog koda u poređenju sa starijim AI modelima koji se oslanjaju na prethodno napisana pravila. Međutim, on i dalje vidi potencijal u korišćenju velikih jezičkih modela za pomoć ljudima u upitima baza podataka, iako priznaje da su rizici po bezbednost "dugo bili potcenjeni pre naše studije".

(Telegraf.rs)