OpenAI je priznao nešto što može biti loše za internet, ali i AI modele

Vreme čitanja: oko 2 min.

Naročito je zabrinjavajuća mogućnost da će tech kompanije nehotice koristiti podatke proizvedene od strane veštačke inteligencije za treniranje novih modela

Foto: T. Schneider / Shutterstock.com

AI alati, kao što su ChatGPT ili Google Bard, sposobni su za kreiranje ubedljivog i korisnog tekstualnog sadržaja. Ali, šta kada ne možemo da razlikujemo ljudski od teksta koji je generisala veštačka inteligencija?

OpenAI, kreator ChatGPT-am+, rano je prepoznao ovaj izazov. U januaru je kompanija predstavila "klasifikator za razlikovanje teksta napisanog od strane čoveka i teksta generisanog od strane različitih AI modela". Cilj je bio da se otkrije koje tekstove stvaraju mašine, a koje ljudi. Međutim, samo sedam meseci kasnije, ovaj projekat je prekinut.

Prema prošlonedeljnom izveštaju OpenAI-a, AI klasifikator više nije dostupan zbog svoje niske stope tačnosti. Kompanija radi na poboljšanju i trenutno istražuje efikasnije tehnike potvrđivanja porekla teksta, piše Business Insider.

Ako OpenAI ne može prepoznati tekst generisan pomoću AI-ja, kako to može bilo ko drugi? Drugi, poput startapa GPTZero, takođe rade na ovom izazovu. No, OpenAI, sa podrškom Microsofta, smatra se najboljim u ovoj oblasti.

Koje su tačno implikacije ovog problema?

Ako ne možemo razlikovati tekst napisan od strane čoveka od teksta generisanog od strane AI-a, svet online informacija postaje problematičniji. Već postoje sajtovi koji koriste nove AI modele za automatsko generisanje sadržaja, a neki od njih su uspeli da generišu prihod od oglasa, ali i laži.

Naročito je zabrinjavajuća mogućnost da će tech kompanije nehotice koristiti podatke proizvedene od strane veštačke inteligencije za treniranje novih modela.

Neki istraživači strahuju da će ti modeli na taj način postati sve lošiji, jer će se hraniti sopstvenim automatski generisanim sadržajem, što dovodi do fenomena koji se naziva AI "Model Collapse".

Grupa istraživača sa prestižnih univerziteta istražila je šta se dešava kada tekst proizveden pomoću GPT jezičkog modela (poput GPT-4) čini većinu podataka koji se koristi za obuku narednih modela.

"Otkrili smo da upotreba sadržaja generisanog od strane modela u treningu uzrokuje nepopravljive defekte u svim sledećim modelima," zaključili su u nedavnom istraživačkom radu.

Ako ne možemo rešiti ovaj egzistencijalni problem, ne možemo ni početi da se bavimo pitanjem da li je nešto na internetu napisao čovek ili mašina.

(Telegraf.rs)