Ko je kriv ako veštačka inteligencija stvori ozbiljne probleme? Google smatra da ima odgovor
Google je izrazio stav o regulaciji veštačke inteligencije (AI) u Australiji, tvrdeći da bi ova zemlja trebalo da ima opuštenije zakone o autorskim pravima koji bi omogućili obuku AI sistema, kao i veću fleksibilnost za prenos osetljivih podataka preko granica.
U svojoj izjavi upućenoj vladi Australije koja istražuje nova pravila za bezbedno i odgovorno korišćenje AI sistema, Google upozorava na rizik gubitka talenta i prilika ukoliko se ne usvoje zakoni koji podržavaju obuku AI sistema. Tvrdi i da preduzeća ne bi trebalo da imaju preveliku obavezu da objasne kako AI donosi odluke.
Ministar za nauku i industriju, Ed Husic, pozvao je kompanije da daju svoje predloge ranije u junu, sa ciljem da obezbedi uspostavljanje pravila koja će balansirati između zaštite od potencijalne štete od novih AI napredaka i podsticanja razvoja inovativnih lokalnih ideja.
Google se zalaže za regulative koje neće ograničiti njegove sopstvene interese u razvoju AI, i predlaže pravni okvir za AI inovaciju. Među njihovim predlozima su: sigurna konkurencija za prekograničnu saradnju na istraživanju bezbednosti AI; proporcionalni zakoni o privatnosti koji omogućavaju pouzdane tokove podataka preko nacionalnih granica; i pravni okvir za korišćenje podataka na internetu za obuku AI modela.
Google takođe predlaže jasnoću o potencijalnoj odgovornosti za zloupotrebu opštenamenskih i specijalizovanih AI sistema, kao i novi sistem autorskih prava koji omogućava odgovarajuću i pravičnu upotrebu zaštićenog sadržaja autorskih prava, dok dopušta izdavačima i stvaraocima sadržaja izbor i kontrolu nad prezentacijom njihovih dela.
Kompanija upozorava da trenutni okvir autorskih prava u Australiji već ometa njihovu sposobnost da razvijaju veštačku inteligenciju u Australiji.
Google je izrazio zabrinutost da bi Australija mogla da izgubi talente ukoliko se ne reši pitanje autorskih prava, kao što predlaže.
Ko bi trebalo da bude odgovoran ako nešto krene po zlu?
Među mnogim zabrinutostima izraženim u globalnoj debati o razvoju AI su strahovi da bi AI sistemi mogli biti iskorišćeni za izvođenje ilegalnih ili agresivnih zadataka, ili bi mogli uvesti pravno upitno donošenje odluka od strane poslovnih ili vladinih organizacija koje ga koriste.
Google smatra da organizacije poput njih ne bi trebalo da budu odgovorne za rizike koje preuzimaju druge operateri koji koriste njegovu tehnologiju, i da zahtevi za objašnjavanje odluka donesenih od strane AI ne bi trebalo strogo da se primenjuju.
Prepoznajući da je važno da se odluke AI sistema objasne kako bi se izgradilo poverenje i samopouzdanje u tehnologiju i održala odgovornost pružalaca AI usluga, Google upozorava da bi previše objašnjavanja bilo kontraproduktivno.
Google upozorava vladu da bi zahtevanje od australijskih organizacija da samo treniraju AI sisteme na podacima koji se nalaze u Australiji sprečilo tu zemlju da bude uključena u razne procese koji se tiču veštačke inteligencije.
Google, zajedno sa Microsoftom i Amazonom, upravlja nekim od najvećih svetskih infrastruktura za "hiperskalabilno" cloud računanje, koje bi se koristilo za globalnu obuku AI sistema, piše Financial Review.
"Poliitike koje ograničavaju australijske organizacije da treniraju australijske AI modele koristeći offshore računske resurse, ili od korišćenja određenih vrsta podataka za obuku modela za unos u globalne sisteme (na primer u oblastima kao što su zaštita od sajber napada ili medicinski sistemi) će povećati troškove za australijske AI inovatore i mogu čak sprečiti da se globalni AI sistemi prilagode australijskim potrebama i okolnostima", kaže Google.
(Telegraf.rs)
Video: Vujanić: U Srbiji je propisano da odeća ne sme da ometa bezbednost upravljanja
Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.