Republikanska senatorica Cynthia Lummis iz savezne države Wyoming predstavila je Zakon o odgovornoj inovaciji i sigurnom stručnom radu 2025. (RISE), prvi samostalan prijedlog u Kongresu koji uvodi uvjetni pravni štit za razvojne tvrtke umjetne inteligencije — ali samo ako javno otkriju ključne podatke o svojim modelima.
Prijedlog zakona, koji još moraju usvojiti oba doma Kongresa i potpisati predsjednik Donald J. Trump, stupio bi na snagu 1. prosinca 2025. godine i odnosio se isključivo na radnje nakon tog datuma.
Kako funkcionira „sigurna luka”
RISE programira imunitet od građanskih tužbi za developere koji ispune stroge zahtjeve transparentnosti:
• „Model card” – sažetak s popisom podataka za učenje, metoda evaluacije, metrika, namjene i ograničenja modela.
• „Model specification” – cjelovit sistemski prompt i ostale upute koje oblikuju ponašanje modela; svako redigiranje zbog poslovne tajne mora biti obrazloženo.
Tvrtke moraju objaviti poznate načine pogreške, redovito ažurirati dokumentaciju i u roku 30 dana unijeti sve promjene ili ispravke; u suprotnom gube zaštitu.
Odgovornost ostaje na liječnicima i odvjetnicima
RISE ne mijenja postojeće profesionalne standarde. Liječnik koji pogrešno protumači AI dijagnostiku ili odvjetnik koji bez provjere preda podnesak generiran modelom ostaje odgovoran klijentu. Sigurna luka ne vrijedi za prijevaru, svjesno krivo predstavljanje ili neprofesionalnu upotrebu.
Oprezni optimizam stručnjaka
Daniel Kokotajlo, voditelj politike u neprofitnom AI Futures Projectu i koautor scenarija „AI 2027”, tvrdi da njegova ekipa „uvjetno podržava” RISE, ali navodi tri brige:
- Mogućnost da tvrtka odbije otkrivanje i prihvati odgovornost ograničava učinak transparentnosti.
- Tridesetodnevni rok za objavu ažuriranja mogao bi biti predug u kriznim situacijama.
- Rizik prekomjernog redigiranja pod izlikom zaštite intelektualnog vlasništva.
Unatoč manama, Kokotajlo ocjenjuje zakon „korakom naprijed” prema većoj otvorenosti AI sustava.
Što znači za tehnološke timove
Ako bude usvojen, RISE će uvesti obvezne kontrolne točke u rad svakoga tko razvija ili implementira AI za regulirane struke. Inženjeri će morati provjeravati je li svaki model dobio javno objavljenu dokumentaciju, automatizirani lanci isporuke (CI/CD) blokirat će izdanja bez ažuriranih „model cardova”, a sigurnosni timovi pojačati obranu protiv napada koji iskorištavaju javno poznate slabosti.
Lummis je u objavi na X-u poručila: „Ako želimo da Amerika predvodi u AI-ju, ne smijemo dopustiti da laboratoriji pišu pravila u sjeni… Potrebni su nam javni, provedivi standardi koji uravnotežuju inovaciju i povjerenje.”
Konačan oblik zakona tek će se kovati, ali jedna je poruka jasna: u profesijama visokog rizika AI više ne smije ostati „crna kutija” — a tko želi mirno spavati pred sudovima, morat će je otvoriti.