Sve više velikih organizacija poseže za agentičkim umjetnim inteligencijama – samostalnim softverskim agentima koji mogu planirati, odlučivati i izvršavati radnje bez stalne ljudske intervencije. Više od polovice tvrtki već je u određenoj mjeri uvelo takve alate, a trend bi se, prema očekivanjima, trebao ubrzati u sljedeće dvije godine.
Ipak, brza implementacija otkrila je i slabosti: čak 40 % tehnoloških čelnika danas priznaje da žali što od početka nisu uspostavili snažnije okvire upravljanja. Stručnjaci upozoravaju da se u utrci za povratom ulaganja ne smije zanemariti sigurnost i odgovornost.
Tri glavna rizika
- Shadow AI – zaposlenici koriste nenadzirane alate izvan odobrenih procedura, čime zaobilaze IT kontrole i otvaraju nove sigurnosne pukotine.
- Nejasno vlasništvo i odgovornost – autonomija agenata nameće pitanje tko popravlja štetu ako sustav pogriješi.
- Nedostatak objašnjivosti – agent može postići cilj, ali put do njega ostaje nevidljiv, što otežava analizu i povratak na sigurno stanje.
Preporučene smjernice za odgovornu primjenu
-
Ljudski nadzor kao zadana postavka
Agenti smiju djelovati tek uz jasno definiranu ulogu „čovjeka u petlji”. Svakom agentu mora biti dodijeljen konkretan vlasnik, a kritične radnje podliježu dodatnim odobravanjem. -
Sigurnost ugrađena od početka
Platforme trebaju zadovoljiti visoke certifikacijske standarde (npr. SOC 2, FedRAMP). Dopuštenja agenata moraju biti ograničena na razinu njihovih vlasnika, a sve radnje zapisane u detaljnim dnevnicima. -
Objašnjivi rezultati
Ulazi i izlazi svakog koraka moraju se bilježiti kako bi inženjeri mogli rekonstruirati logiku odlučivanja i reagirati na neželjene posljedice.
Sigurnost kao preduvjet uspjeha
Agentički AI može ubrzati procese i donijeti znatan povrat ulaganja, no samo uz čvrste mehanizme nadzora, jasnu odgovornost i potpunu transparentnost. Tvrtke koje te korake integriraju od samog početka bolje će iskoristiti prednosti tehnologije, a pritom minimalizirati rizike za svoje sustave i podatke.