Stručnjaci počinju da sumnjaju da će "halucinacije" u AI sistemima ikada nestati: "Ovo se ne može popraviti"

Vreme čitanja: oko 2 min.

Tehnološki stručnjaci počinju da sumnjaju da će problem "halucinacija" koji imaju AI sistemi ikada biti rešen

Foto: Shutterstock.com

Ako dovoljno koristite ChatGPT ili druge četbotove sa veštačkom inteligencijom, neće proći dugo pre nego što oni počnu da iznose neistinite tvrdnje. Nazvane "halucinacijama", ovakve neistinite tvrdnje sada predstavljaju problem za sve - od poslovnih organizacija do srednjoškolaca koji pokušavaju da koriste generativne AI sisteme za sastavljanje dokumenata i obavljanje posla. Neki čak koriste AI za zadatke sa ozbiljnim potencijalnim posledicama, kao što su psihoterapija, istraživanje i pisanje pravnih akata.

"Nema modela danas koji ne pati od određene vrste halucinacija", rekla je Danijela Amodei, suosnivačica i predsednica Anthropic-a, kompanije koja je napravila četbot Claude 2. "Oni su stvarno samo sorta dizajnirani da predvide sledeću reč," dodala je Amodei. "I uvek će biti neka stopa na kojoj model to radi netačno."

Anthropic, OpenAI - kompanija koja je napravila ChatGPT, i drugi veliki proizvođači AI sistema kažu da rade na tome da ih učine tačnijim. Međutim, koliko će vremena biti potrebno da se to postigne i da li će ikada biti dovoljno dobri da, na primer, bezbedno daju medicinske savete, ostaje da se vidi.

Ovaj problem se ne može rešiti, kaže Emili Bender, profesorka lingvistike i direktorka Laboratorije za računarsku lingvistiku na Univerzitetu u Vašingtonu. "To je inherentno u neskladu između tehnologije i predloženih upotreba," dodaje ona.

Puno toga zavisi od pouzdanosti generativne AI tehnologije. McKinsey Global Institute procenjuje da će ova tehnologija dodati ekvivalent od 2,6 do 4,4 biliona (američki trilion) dolara globalnoj ekonomiji. Četbotovi su samo jedan deo te pomame, koja takođe uključuje tehnologiju koja može generisati nove slike, video, muziku i računarski kod. Skoro sve alatke uključuju neke jezičke komponente.

Google već nudi AI proizvod za pisanje vesti organizacijama, gde je tačnost od najveće važnosti. Associated Press takođe istražuje upotrebu tehnologije kao deo partnerstva sa OpenAI, koji plaća za korišćenje dela AP-ovog tekstualnog arhiva da bi poboljšao svoje AI sisteme.

Ganeš Bagler, računarski naučnik iz Indije, godinama radi na tome da AI sistemi, uključujući prethodnika ChatGPT, izmisle recepte za južnoazijske kuhinje, kao što su nove verzije birjanija na bazi pirinča. Samo jedan "halucinirani" sastojak mogao bi da napravi razliku između ukusnog i nejestivog obroka.

Kada je Sam Altman, izvršni direktor OpenAI, posetio Indiju u junu, profesor na Indraprastha Institute of Information Technology u Delhiju imao je neka konkretna pitanja.

"Pretpostavljam da su halucinacije u ChatGPT još uvek prihvatljive, ali kada dobijemo recept sa halucinacijama, to postaje ozbiljan problem," rekao je Bagler. "Znači, šta je rešenje?"

Altman je izrazio optimizam, ako ne i potpunu posvećenost.

"Mislim da ćemo problem halucinacija prebaciti na mnogo, mnogo bolje mesto", rekao je Altman. "Mislim da će nam biti potrebno godinu i po, dve godine. Nešto nalik tome. Ali u tom trenutku i dalje nećemo pričati o njima. Postoji ravnoteža između kreativnosti i savršene tačnosti, a model će morati da nauči kada želite jedno ili drugo", rekao je Altman.

(Telegraf.rs)