Bivši istraživači OpenAI-a upozoravaju: "Ovo može izazvati katastrofu"

N. M.
Vreme čitanja: oko 1 min.
Foto: Shutterstock

Dvojica bivših istraživača iz OpenAI-a, Vilijam Saunders i Danijel Kokotajlo, upozorili su na moguće ozbiljne posledice koje bi mogle da nastanu ukoliko se zanemari bezbednost u razvoju veštačke inteligencije. Ovi istraživači sada javno kritikuju svoju bivšu kompaniju zbog njenog protivljenja zakonu SB 1047 u Kaliforniji, koji predlaže rigorozne mere bezbednosti, uključujući i uvođenje tzv. "prekidača za isključivanje" u AI sisteme.

U pismu upućenom guverneru Kalifornije Gevinu Njusomu, Saunders i Kokotajlo izrazili su razočaranje što OpenAI ne podržava ovaj zakon. Prema njihovim rečima, oni su napustili kompaniju jer su izgubili poverenje u njen pristup bezbednom razvoju AI tehnologije. Smatraju da ignorisanje ovakvih bezbednosnih mera može dovesti do "katastrofe za širu javnost", piše Business Insider.

Iako je Sem Altman, generalni direktor OpenAI-a, više puta javno podržavao ideju regulacije AI, Saunders i Kokotajlo navode da kompanija zapravo odbija da podrži konkretne zakonske predloge kada oni dođu na dnevni red. OpenAI je u izjavi za medije osporio ove tvrdnje, naglašavajući da veruju kako regulacija AI treba da bude sprovedena na saveznom nivou, a ne kroz individualne zakone na nivou država, kako bi se obezbedio dosledan pristup i liderstvo SAD-a u globalnom kontekstu.

Međutim, bivši istraživači ostaju skeptični prema ovom stavu, sumnjajući da kompanija ima i druge razloge za protivljenje zakonu SB 1047. Oni smatraju da je neophodno da se ovaj zakon usvoji kako bi se osigurala bezbednost u razvoju AI tehnologije, čak i ako to znači preduzimanje koraka pre nego što federalna regulacija bude uspostavljena.

Pitanje kako će Kalifornija odgovoriti na ove zahteve ostaje otvoreno, dok debata o bezbednosti veštačke inteligencije sve više dobija na značaju.

(Telegraf.rs)