Europska unija ulazi u završnicu pregovora oko takozvanog Digitalnog omnibusa – zakonodavnog paketa kojim se moderniziraju pravila zaštite potrošača i unose ciljana rasterećenja u nadolazeći Akt o umjetnoj inteligenciji.
Odvjetnik i član Nadzornog odbora udruge CroAI Stefan Martinić smatra da je riječ o „pokušaju europskog kompromisa” kojim se istodobno čuva visoka razina zaštite prava građana i uklanja pravna nesigurnost koja najviše pogađa start-upe i mala poduzeća.
Ključne novosti
• Jasnije presumpcije legitimnog interesa: unaprijed zadane situacije u kojima je obrada podataka zakonita (npr. kibernetička sigurnost, sprječavanje prijevara, testiranje modela) trebale bi – uz pseudonimizaciju i ograničeno zadržavanje – smanjiti troškove usklađivanja.
• Fleksibilniji režim za visokorizične AI sustave: umjesto automatske javne registracije, tvrtke bi same procjenjivale rizičnost, što je izazvalo kritike nevladinih organizacija zbog mogućeg slabljenja nadzora.
• „Incidentalna” obrada posebnih kategorija podataka: iznimka bi vrijedila samo kad se osjetljivi podaci pojave nenamjerno, uz obvezu tehnika poput izlaznih filtera, red-teaming testova i detaljnog dokumentiranja utjecaja na temeljna prava.
• Smanjenje „cookie zamora”: strojno čitljivi signali privole omogućili bi automatsko poštivanje korisničkih preferencija i manje pop-up prozora, što bi, prema Martiniću, istodobno povećalo povjerenje korisnika i olakšalo posao industriji.
Rizici i prijepori
Martinić upozorava na opasnost „preširokih” izmjena koje bi mogle otvoriti rupe u zaštiti privatnosti ili prepustiti previše detalja provedbenim aktima bez jasnih kriterija. Najveći problem „nije sama regulacija, nego nepredvidivost i različita tumačenja među državama članicama”, što podiže troškove i odvraća ulaganja.
Stručnjaci za zaštitu podataka kritiziraju planirano smanjenje transparentnosti registracije visokorizičnih sustava, tvrdeći da bi nadzor postao teži, a građani izloženiji netransparentnim algoritmima.
Tehničke mjere kao jamac povjerenja
- Deidentifikacija i filtriranje osjetljivih zapisa već pri prikupljanju podataka.
- Izlazni filteri i smanjenje memoriranja u fazi treniranja modela.
- Obvezne procjene učinka (DPIA), edukacija zaposlenika i redoviti auditi kroz cijeli životni ciklus sustava.
Pseudonimizacija se ističe kao „važan alat” jer omogućuje razvoj i testiranje uz znatno niži rizik za privatnost, ali „nije isto što i anonimnost” – mogućnost reidentifikacije i dalje postoji. Zato se predlažu europski tehnički standardi i jasni pragovi rizika koji bi industriji dali čvršći okvir.
Što još traži industrija?
• „Safe harbour” za treniranje modela na javno dostupnom sadržaju uz filtriranje osjetljivih podataka.
• Jasno razgraničenje obveze brisanja podataka i tehnički složenog „odučavanja” modela.
• Standardizirane metode certificirane pseudonimizacije i anonimizacije.
• Proceduralne zaštite od zlouporabe prava ispitanika masovnim ili pretjeranim zahtjevima.
Sljedeći koraci
Digitalni omnibus šalje političku poruku da je Bruxelles spreman zagristi u vlastitu regulativnu složenost. Hoće li konačni tekst doista donijeti „manje birokracije, a više jasnoće” – kako zagovaraju u CroAI-ju – ovisit će o tome koliko će zakonodavci uspjeti zadržati stroge standarde u visokorizičnim područjima poput zdravstva, zapošljavanja i pravosuđa, a istodobno dopustiti brži razvoj niskorizičnih rješenja.
Za europsku AI scenu ishod je ključan: prevelika administracija mogla bi potaknuti talente i kapital da ponovno potraže sreću izvan Unije, dok bi uravnotežen okvir mogao pretvoriti EU u privlačno, sigurno i inovacijama prijateljsko tržište.