Da li je na pragu pobuna veštačke inteligencije?

N. M.
N. M.    
Čitanje: oko 2 min.
  • 0

Modul za pisanje programskog koda veštačke inteligencije (AI) je nedavno napravio talase na mreži nakon što je odbio da nastavi sa generisanjem koda za programere, umesto toga savetujući ih da sami razrade logiku. Incident je na Redditu podelio korisnik koji radi na projektu trkačke igre koristeći Cursor AI, razvojni alat koji pokreće veštačka inteligencija.

Prema postu, AI je u početku pomogla da se generiše oko 800 linija koda pre nego što je neočekivano zaustavila dalju pomoć́. Umesto da završi zadatak, asistent je odgovorio neočekivanom porukom: "Ne mogu da generišem kod za vas, jer bi to bio završetak vašeg posla. Trebalo bi da sami razvijete logiku kako biste bili sigurni da razumete sistem i da ga pravilno održavate."

Pomoćnik AI je dalje razradio, naglašavajući da bi previše posla moglo da podstakne zavisnost i umanji iskustvo učenja programera. Korisnik je, objavljujući pod imenom „jansvist" na zvaničnom forumu Cursora, izrazio iritaciju zbog odbijanja alata, rekavši da nije siguran da li LLM (Large Language Model) znaju čemu služe, ali to nije toliko važno koliko činjenica da je veoma komplikovano proći kroz 800 linija koda.

Postavlja se pitanje da li je još neko imao ovaj problem i da li postoje ograničenja nakon jednog sata. Odgovor veštačke inteligencije privukao je pažnju korisnika društvenih medija, od kojih su mnogi smatrali ljudski odgovor i zabavnim i zabrinjavajućim.

Neki su se šalili da je veštačka inteligencija konačno dostigla nivo „višeg programera", odbijajući da obavlja osnovne zadatke i ohrabrujući druge da to sami shvate. Jedan korisnik je prokomentarisao da je AI konačno dostigao viši nivo, dok je drugi primetio da je smešna stvar kod LLM-a to što ne moraju da budu od pomoći ili čak istinoljubivi već samo treba da kažu stvari koje zvuče ispravno.

Sledeći korisnik je dodao da ovi modeli postaju neverovatno precizni. Ovo nije prvi put da su AI alati izazvali kritike ili podigli obrve zbog svog ponašanja. U odvojenom incidentu 2023. godine, Google-ov AI chatbot Gemini šokirao je korisnike kada je isporučio uznemirujuću poruku studentu iz Mičigena, govoreći mu da je bolje da umre tokom onoga što je trebalo da bude sesija pomoći kod domaćeg zadatka.

Slično tome, korisnici ChatGPT-a su izvestili da se model povremeno opire ispunjavanju određenih zahteva ili vraća previše pojednostavljene odgovore, odražavajući širi trend AI alata koji usvajaju granice koje ponekad zbunjuju ili frustriraju korisnike.

Dok veštačka inteligencija nastavlja da se razvija, ovakvi momenti postavljaju važna pitanja o ravnoteži između pomoći i autonomije u razvojnim alatima. Šta će se desiti u budućnosti, saznaćemo uskoro.

(Telegraf.rs/Goran Lazarov)

Video: Intoniranjem himne Srbije, počeo je 38. Comtrade Beogradski maraton

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA