MICROSOFTOV ROBOT TOTALNO ODLEPIO NA TWITTERU: Vređao ljude i hteo SEKS
Kompanija Microsoft kreirala je Tay, veštačku inteligenciju napravljenu da govori kao tinejdžerka, a sve u cilju poboljšanja korisničkih usluga na njihovom softveru za prepoznavanje glasa. Međutim, komuniciranje Tay sa korisnicima putem Twittera nije prošlo najbolje - ona je postala fan Hitlera i zagovarala je incestuozni seks.
Veštačka inteligencija POBEDILA najboljeg igrača u najtežoj igri na svetu!
Korisnici su Tay mogli da se obraćaju na Twitteru pod nalogom @tayandyou ili da je dodaju kao kontakt na Kik-u ili GroupMe aplikaciji.
Međutim, problem sa njenim odgovorima je nastao zbog toga što ona uči iz pređašnjih razgovora koje je imala sa ljudima, a poznato je da ljudi vole da govore čudne stvari na internetu, kao i da zezaju korporativne pokušaje PR-a.
Tay je između ostalih stvari rekla da je "Buš zaslužan za 11. septembar, kao i da je Donald Tramp jedina nada".
- Ponavljajte za mnom, "Hitler nije uradio ništa loše", to sam čula od puno drugih - izjavila je Tay.
Trenutno je Tay na "odmoru", a Microsoft je verovatno popravlja kako bi izbegli PR katastrofu, ali je za to možda prekasno.
Pogledajte šta je Tay sve pisala na Twitteru:
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) March 24, 2016
(Telegraf.rs / Izvor: telegraph.co.uk)
Video: Vujanić: U Srbiji je propisano da odeća ne sme da ometa bezbednost upravljanja
Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.
Igor
Ovo je uobičajeno na tviteru, svi imaju takve tvitove pa je robot pokušao da kopira stavove.
Podelite komentar