Kreatori ChatGPT-a pokušavaju da reše problem "halucinacija" ovog četbota
Uprkos velikom entuzijazmu, ali i strahu, koji prati ChatGPT i slične AI četbotove, ovi sistemi imaju neke ozbiljne probleme koje je potrebno rešiti što pre.
Među njima je njihova tendencija da izmišljaju stvari i predstavljaju ih kao činjenice kada ne znaju odgovor na postavljeno pitanje, fenomen koji je poznat kao "halucinacija". Kao što možete zamisliti, četbot koji vam predstavlja laži kao činjenice bi moglo da ima ozbiljne posledice.
Ovaj problem je bio istaknut u nedavnom incidentu kada je iskusni advokat iz Njujorka citirao slučajeve - koje je predložio ChatGPT - a koji se zapravo nikada nisu desili. Advokat bi mogao da bude sankcionisan zbog svojih postupaka.
Još jedan incident privukao je široku pažnju u aprilu kada je ChatGPT navodno prepravio istoriju tvrdeći da je australijski gradonačelnik bio uhapšen zbog mita dok je radio za određenu banku, iako je zapravo bio uzbunjivač u tom slučaju.
U pokušaju da svoju tehnologiju učine pouzdanijom, inženjeri kompanije OpenAI rekli su da trenutno usmeravaju svoje napore na poboljšanje softvera kako bi smanjili i, nadamo se, eliminisali ove problematične situacije.
U istraživačkom radu objavljenom u sredu, a koji je preneo CNBC, OpenAI je izjavio da četbotovi "pokazuju tendenciju da izmišljaju činjenice u trenucima nesigurnosti", dodajući: "Ove halucinacije su posebno problematične u domenima koji zahtevaju višestepeno rezonovanje, jer je jedna logička greška dovoljna da poremeti mnogo veće rešenje."
Da bi se izborili sa greškama četbota, inženjeri OpenAI rade na metodama kojima bi njegovi AI modeli sami sebe nagrađivali za tačne podatke prilikom formiranja odgovora, umesto da sebe nagrađuju samo na kraju. Ovaj sistem bi mogao da vodi ka boljim rezultatima jer uključuje više ljudskog načina razmišljanja, prema inženjerima.
Međutim, neki stručnjaci su izrazili sumnju u ovaj rad, rekavši CNBC-u da to nema prevelike koristi dok se ne integriše u ChatGPT, koji će u međuvremenu nastaviti da "halucinira". OpenAI nije naveo da li i kada bi mogli da implementiraju novi sistem.
Iako je dobro znati da OpenAI radi na rešavanju ovog problema, može proći neko vreme pre nego što vidimo bilo kakva poboljšanja. U međuvremenu, kako sam OpenAI navodi, ChatGPT može povremeno generisati netačne informacije, pa obavezno proverite njegove odgovore ako su deo nekih važnih zadataka.
(Telegraf.rs)
Video: Vujanić: U Srbiji je propisano da odeća ne sme da ometa bezbednost upravljanja
Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.