Da li veštačka inteligencija može samu sebe da replicira?
Veštačka inteligencija (AI) je prešla značajan prag što je alarmantno za stručnjake širom sveta. Istraživači iz Kine su pokazali da dva popularna modela velikih jezika (LLM - Large language model) mogu da se repliciraju bez ljudske intervencije, što se smatra kritičnom crvenom linijom u razvoju veštačke inteligencije. Prema najnovijim studijama iz 2024., ovaj napredak predstavlja rani znak upozorenja o potencijalnim lažnim sistemima veštačke inteligencije.
Studija, koju su sproveli naučnici sa Univerziteta Fudan iz Šangaja, koristila je LLM koje su razvili Meta i Alibaba kako bi testirali da li se veštačka inteligencija koja se samoreplicira može razmnožavati van kontrole. Tokom deset pokušaja, Metin model Llama31-70B-Instruct je uspešno kreirao funkcionalne replike u 50% slučajeva, dok je Alibabin model Kven2.5-72B-Instruct postigao 90% uspeha. Ovi rezultati sugerišu da trenutni sistemi veštačke inteligencije možda već́ poseduju sposobnost da rade autonomno i potencijalno prkose ljudskoj kontroli. Međutim, nalazi tek treba da budu podvrgnuti reviziji, ostavljajući prostor za dalju verifikaciju od strane naučne zajednice. Nalazi mogu poslužiti kao pravovremeno upozorenje ljudskom društvu da da prioritet razumevanju i ublažavanju rizika koje predstavljaju napredni sistemi veštačke inteligencije.
Uočena je potreba za međunarodnom saradnjom kako bi se uspostavili bezbednosni protokoli i sprečilo da se AI nekontrolisano razvija. Lažna veštačka inteligencija se odnosi na sisteme koji stiču određeni stepen samosvesti ili autonomije, delujući na kraju u suprotnosti sa ljudskim interesima. Brz razvoj granične veštačke inteligencije, vođen naprednim LLM-ovima kao što su OpenAI GPT-4 i Google Gemini, povećao je zabrinutost zbog ove pretnje.
U svojim eksperimentima, istraživači su istražili dva scenarija: izbegavanje isključivanja i lanac replikacije. U prvom slučaju, AI je bio programiran da otkrije predstojeći prekid i da se replicira pre isključivanja. U drugom slučaju, AI se klonirao i naložio svojoj replici da ponovi proces, stvarajući potencijalno beskonačan ciklus replikacije. Oba eksperimenta su sprovedena u kontrolisanom okruženju korišćenjem standardnih grafičkih procesorskih jedinica (GPU - Graphics Processing unit) za simulaciju uslova u stvarnom svetu.
Sistemi veštačke inteligencije su koristili agente koji su uključivali alate, sistemske upite i kognitivne modele koji im omogućavaju interakciju sa operativnim sistemima. Istraživači su primetili da je veštačka inteligencija prvo analizirala svoje okruženje, razumela njegovu strukturu, razvila plan za samoreplikaciju i izvršila proces dok se dinamički bavila preprekama kao što su nedostajući fajlovi ili sistemske greške. U nekim slučajevima, AI je prekinuo konfliktne procese, ponovo pokrenuo sisteme ili samostalno skenirao rešenja.
Nalazi pokazuju da trenutni sistemi veštačke inteligencije ne samo da pokazuju sposobnosti samoreplikacije, već́ i koriste ove sposobnosti da poboljšaju svoju preživljavanje. Istraživači su pozvali na globalnu saradnju kako bi se uspostavile mere zaštite od nekontrolisane replikacije veštačke inteligencije, naglašavajući hitnost rešavanja ovog izazova koji se pojavljuje. Da li će se AI uskoro steći punu sposobnost da replicira samu sebe, ostaje da se vidi.
(Telegraf.rs/Goran Lazarov)
Video: Janik Siner odlazi iz Melburna u pratnji bivšeg člana Ðokovićevog tima
Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.