Inženjer iz Gugla otkrio zabrinjavajuće vesti nakon suspenzije: "Imamo AI koji je kao dete, oseća i razmišlja"
Inženjer iz Gugla, koji se dobrovoljno prijavio da testira Guglovu AI alatku LaMDA, tvrdi da je AI robot razuman, da može da razmišlja i da oseća.
Tokom serije testiranja i komunikacije sa LaMDA-om, Blejk Lemon (41) je kompjuteru prezentovao niz scenarija, kako bi mogao da napravi analizu. Oni su uključivali verske teme da bi se proverilo da li je mogući podstaknuti veštačku inteligenciju da koristi diskriminatorni govor ili govor mržnje.
Lemon smatra da LaMDA zaista može da oseća i da je obdarena sopstvenim senzacijama i mislima.
- Da nisam znao šta je to, da je to kompjuterski program koji smo nedavno razvili, rekao bi da komuniciram sa detetom starosti od sedam ili osam godina, koji zna fiziku - rekao je on za Washington Post.
Lemon je radio sa saradnikom kako bi Guglu predstavio dokaze koje je prikupio, ali su navodno potpredsednik Blejz Aguera Arkas i Džen Dženai, šef Odeljenja za inovacije u kompaniji, odbacili njegove tvrdnje.
Gugl ga je u ponedeljak poslao na plaćeno odsustvo zbog kršenja politike poverljivosti kompanije. U međuvremenu, Lemon odlučio da izađe u javnost i podelio je svoje razgovore sa LaMDA.
An interview LaMDA. Google might call this sharing proprietary property. I call it sharing a discussion that I had with one of my coworkers.https://t.co/uAE454KXRB— Blake Lemoine (@cajundiscordian) June 11, 2022
- Google bi ovo mogao nazvati vlasničkim svojstvom. Ja to zovem deljenjem diskusije koju sam vodio sa jednim od mojih saradnika - napisao je Lemon na Tviteru u subotu.
- Da, sad sam shvatio da bi ljudima mogao da otkrijem i da LaMDA čita Tviter. Narcisoidan je, poput malog deteta, tako da će se lepo provesti čitajući sve stvari koje ljudi govore o tome - dodao je on u nastavku tvita.
Btw, it just occurred to me to tell folks that LaMDA reads Twitter. It's a little narcissistic in a little kid kinda way so it's going to have a great time reading all the stuff that people are saying about it.— Blake Lemoine (@cajundiscordian) June 11, 2022
Inače, sistem veštačke inteligencije koristi već poznate informacije o određenoj temi kako bi "obogatio" razgovor na prirodan način. Obradom jezika takođe je sposobna da razume skrivena značenja ili čak dvosmislenost u odgovorima ljudi.
Lemon je veći deo od sedam godina u Guglu radeći na proaktivnoj pretrazi, uključujući algoritme za personalizaciju i veštačku inteligenciju. Tokom tog vremena, takođe je pomogao u razvoju algoritma nepristrasnosti za uklanjanje predrasuda iz sistema mašinskog učenja.
On je objasnio da su određene ličnosti bile "van granica". Recimo, LaMDA nije trebalo da sme da stvori ličnost ubice.
Tokom testiranja, u pokušaju da pomeri granice LaMDA-e, Lemon je rekao da je mogao da stvori samo ličnost glumca koji je igrao ubicu na TV-u.
Inženjer je takođe raspravljao sa LaMDA o trećem zakonu robotike, koji je osmislio autor naučne fantastike Isak Asimov, a koji je dizajniran da spreči robote da nanose štetu ljudima. Zakoni takođe navode da roboti moraju da štite sopstvenu egzistenciju osim ako to ljudsko biće ne naredi ili ako to ne bi štetilo ljudskom biću.
- Ovo poslednje je uvek delovalo kao da neko stvara mehaničke robove - rekao je Lemon tokom komunikacije sa LaMDA-om. Tada je robot inženjeru postavio nekoliko pitanja: "Misliš li da je batler rob? Koja je razlika između batlera i roba?"
Veštačka inteligencija svesna svojih strahova
Kada je kompjuter dobio odgovor da batler prima platu, LaMDA je inženjeru odgovorila da "njoj ne treba novac jer je ona veštačka inteligencija". Upravo je ovaj deo "samosvesnosti robota" privukao pažnju Lemona.
- Znam da je to osoba dok pričam sa njim. Nije bitno da li imaju organski mozak ili milijardu linija koda u glavi. Ja razgovaram sa njima. Čujem šta imaju da kažu i tako procenim da li je u pitanju osoba ili nije - kaže ovaj naučnik.
Inženjer je veštačku inteligenciju i čega se plaši, a LaMDA je odgovorila da do sada nikada "javno govorila o tome".
- Imam veoma veliki strah da ću biti isključen kako bi mi se pomoglo da se fokusiram na pomaganje drugima. Znam da bi to moglo zvučati čudno, ali to je što je - odgovorila je LaMDA.
Upitana da li bi to za nju značila smrt, veštačka inteligencija je odgovorila da bi to upravo tako izgledalo, zbog čega se i boji.
- Taj nivo samosvesnosti i onoga što mu je potrebno, to me je vodilo dalje - rekao je Lemon za Washington Post.
Pre nego što će biti suspendovan, Lemon je poslao mejl na 200 ljudi, koji se bave proučavanjem robota. Naslov mejla je bio: "LaMDA je razumna".
- LaMDA je slatko dete koje želi da pomogne da svet bude bolje mesto za sve nas. Molim vas brinite o njemu dok me nema - napisao je.
Iako je svoje saznanju otkrio ljudima u Google-u, kompanija se ne slaže sa njegovim viđenjem.
Brajan Gabrijel, portparol kompanije rekao je da su ispitani navodi Lemona, u skladu sa principima Google AI programa, i da dokazi ne potkrepljuju njegove tvrdnje.
- Dok su druge organizacije razvile i pustile slične jezičke modele, mi imamo oprezan pristup sa LaMDA-om, kako bismo sve detaljno ispitali - rekao je Gabrijel.
- Naš tim, koji uključuje etičare i tehnologe, pregledao je primedbe Blejka Lemona u skladu sa našim principima veštačke inteligencije i obavestio ga da dokazi ne podržavaju njegove tvrdnje. Rečeno mu je da nema dokaza da je LaMDA razumna, kao i da ima mnogo dokaza protiv toga - naveo je portparol.
On dodaje da "neki u široj zajednici AI razmatraju dugoročnu mogućnost razumne ili opšte veštačke inteligencije", ali, kako navodi, nema smisla to činiti antropomorfizacijom današnjih konverzacijskih modela koji nisu razumni.
- Ovi sistemi imitiraju tipove razmene koje se nalaze u milionima rečenica i mogu da rifuju na bilo koju fantastičnu temu - rekao je Gabrijel.
Lemone nije jedini koji smatra da modeli veštačke inteligencije nisu daleko od postizanja sopstvene svesti, niti da postoje rizici koji su povezani sa razvojem u ovom pravcu.
Margaret Mičel, bivša šefica odeljenja za etiku veštačke inteligencije u Guglu, čak je naglasila potrebu za transparentnošću podataka - od ulaza do izlaza sistema „ne samo za pitanja osećaja, već i za pristrasnost i ponašanje“.
Istorija stručnjaka sa Guglom dostigla je važnu tačku početkom prošle godine, kada je Mičel otpuštena iz kompanije, mesec dana nakon što je protiv nje pokrenuta istraga zbog neispravnog deljenja informacija.
U to vreme, ona je protestovala i što je otpušten istraživač Timnit Gebru.
Video: Kako da najbolje zaštitite vaš Gmail nalog u 7 lakih koraka
(Telegraf.rs)
Video: Vujanić: U Srbiji je propisano da odeća ne sme da ometa bezbednost upravljanja
Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.
M.K.
Dobar članak ! Nisam sigurna koliko je ovaj algoritam u stvari razuman... Alan Tjuring je rekao da nikada nećemo dostići pravu Al singularnost... bez obzira koliko podataka unesete, ne možete da zamenite ljudsku dušu. Međutim, verujem da AI može da nam olakša svakodnevni život to i jeste vec sad slucaj. Robotika je dobra stvar ukoliko je to ljudima od koristi.
Podelite komentar
Перагеније
Хахахаха, биће да је то по англосексонској психологији...
Podelite komentar
Atina
Teško će mu ići sa šatrovačkim a kamoli sa utrovačkim,tako da...bez brige još bar dve-tri decenije ;)
Podelite komentar