Gotovo trećina zaposlenika diljem svijeta već koristi neodobrene AI agente u svakodnevnim zadacima, pokazuje najnovije izvješće Microsoftova odjela za kibernetičku sigurnost Cyber Pulse. Dok se organizacije utrkuju uvođenjem umjetne inteligencije, nedostatak vidljivosti i kontrole nad tim digitalnim pomoćnicima stvara novi sloj poslovnog i regulatornog rizika.
Microsoft bilježi ekspanziju agenata razvijenih unutar vlastitog ekosustava – od Fabric i Foundryja do Copilot Studija i Agent Buildera. Više od 80 % tvrtki s liste Fortune 500 već ima aktivne agente izrađene low-code/no-code alatima, čime se AI preselio iz IT-odjela u gotovo sve poslovne funkcije.
Geografska slika također se mijenja: Europa, Bliski istok i Afrika generiraju 42 % svih aktivnih agenata, Sjedinjene Države 29 %, Azija 19 %, a preostale američke države 10 %. Najbrže rastu industrije pod strogom regulativom – iza softverskog sektora (16 %) slijede proizvodnja (13 %), financijske usluge (11 %) i maloprodaja (9 %). Ondje se agenti već koriste za sastavljanje prijedloga, analizu financijskih podataka, automatizaciju ponavljajućih procesa i brzu trijažu sigurnosnih događaja.
No brzina implementacije često nadmaši postojeće sigurnosne i upravljačke mehanizme, čime se otvara prostor za tzv. shadow AI. Prevelike ovlasti ili pogrešni ulazni podaci mogu od pouzdanog asistenta načiniti „dvostrukog agenta” sklonog zlouporabi, upozorava izvješće.
„U Hrvatskoj i diljem regije AI agenti brzo postaju digitalne kolege u svakodnevnim poslovnim operacijama. No bez jasnih pravila, vidljivosti i odgovornosti oni mogu postati ozbiljan sigurnosni rizik. Inovacije i sigurnost moraju napredovati istom brzinom”, ističe Tomislav Vračić, regionalni direktor za tehnologiju u Microsoftu. Dodaje da će tvrtke koje primjenjuju Zero Trust principe, potpunu vidljivost i centralizirano upravljanje agentima „smanjiti rizik, ojačati povjerenje i biti bolje pozicionirane u odnosu na konkurenciju”.
Podaci iz Microsoftova Data Security Indexa otkrivaju da tek 47 % organizacija uvodi posebne sigurnosne kontrole za generativni AI. Kompanije koje danas postavljaju jasne procese, ograničavaju privilegije i uključuju pravne, ljudske resurse, podatkovne timove i upravu u nadzor AI-ja, bit će spremnije zadovoljiti sve strože europske standarde i ublažiti financijske, operativne i regulatorne udare.
Vrijeme je, poručuje Microsoft, da se umjetnoj inteligenciji pristupi kao svakoj drugoj kritičnoj funkciji – s jasnim ulogama, stalnim nadzorom i pravilima koja se ne mogu zaobići jednim klikom u popularnom chatbotu.