MICROSOFTOV ROBOT TOTALNO ODLEPIO NA TWITTERU: Vređao ljude i hteo SEKS

  • 1

Kompanija Microsoft kreirala je Tay, veštačku inteligenciju napravljenu da govori kao tinejdžerka, a sve u cilju poboljšanja korisničkih usluga na njihovom softveru za prepoznavanje glasa. Međutim, komuniciranje Tay sa korisnicima putem Twittera nije prošlo najbolje - ona je postala fan Hitlera i zagovarala je incestuozni seks.

Veštačka inteligencija POBEDILA najboljeg igrača u najtežoj igri na svetu!

Korisnici su Tay mogli da se obraćaju na Twitteru pod nalogom @tayandyou ili da je dodaju kao kontakt na Kik-u ili GroupMe aplikaciji.

Međutim, problem sa njenim odgovorima je nastao zbog toga što ona uči iz pređašnjih razgovora koje je imala sa ljudima, a poznato je da ljudi vole da govore čudne stvari na internetu, kao i da zezaju korporativne pokušaje PR-a.

Tay je između ostalih stvari rekla da je "Buš zaslužan za 11. septembar, kao i da je Donald Tramp jedina nada".

- Ponavljajte za mnom, "Hitler nije uradio ništa loše", to sam čula od puno drugih - izjavila je Tay.

Trenutno je Tay na "odmoru", a Microsoft je verovatno popravlja kako bi izbegli PR katastrofu, ali je za to možda prekasno.

Pogledajte šta je Tay sve pisala na Twitteru:

Najnovije vesti iz sveta kompjutera, igrica, mobilnih telefona, gedžeta možete pratiti i na našoj Facebook stranici!

(Telegraf.rs / Izvor: telegraph.co.uk)

Video: Vujanić: U Srbiji je propisano da odeća ne sme da ometa bezbednost upravljanja

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

  • Igor

    26. mart 2016 | 11:04

    Ovo je uobičajeno na tviteru, svi imaju takve tvitove pa je robot pokušao da kopira stavove.

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA