Sve više tvrtki u kibernetičkoj sigurnosti oslanja se na alate temeljene na umjetnoj inteligenciji koji u sekundama analiziraju goleme količine podataka, prepoznaju obrasce napada i automatski predlažu reakcije. No uz ove prednosti raste i bojazan da će pretjerano povjerenje u „crne kutije” postupno potisnuti ljudsku prosudbu.
Strah ima uporište u ranijim tehnološkim zaokretima. Početkom 2000-ih brojni su kritičari tvrdili da će pretraživači poput Googlea „otupjeti” sposobnost pamćenja i logičkog zaključivanja. Umjesto toga, pokazalo se da su korisnici počeli brže procjenjivati izvore i učinkovitije pronalaziti informacije. Zagovornici sličnu evoluciju očekuju i sada: AI bi, kažu, trebao preoblikovati, a ne zamijeniti kritičko mišljenje.
Rizici ipak postoje. Slijepo prihvaćanje automatiziranih procjena prijetnji može dovesti do propuštenih signala ili pogrešnih odluka. Prevelik oslonac na gotove „scoreove” i automatizirane odgovore smanjuje znatiželju, a time i prilike za učenje iz rubnih, neobičnih slučajeva.
S druge strane, pravilno korištenje AI-a stručnjacima oslobađa vrijeme: rutina i trijaža prepuštaju se stroju, dok se ljudi bave složenijim incidentima. Veliki jezikovni modeli mogu ponuditi alternativna objašnjenja, otkrivati slijepe točke i sažimati izvješća, što olakšava timsku raspravu.
Praktične smjernice za očuvanje kritičkog mišljenja uključuju:
- postavljanje otvorenih pitanja kako bi se otkrile dodatne perspektive;
- ručnu provjeru AI rezultata u zapisnicima ili kroz timsku diskusiju;
- simulacije „što ako” scenarija radi testiranja pretpostavki;
- uvođenje ljudskih kontrolnih točaka prije eskalacije incidenta;
- redovite analize odluka donesenih uz pomoć AI-a.
Ključna je i edukacija. Tvrtke koje intenzivno koriste AI i automatizaciju u sigurnosti prosječno uštede 2,22 milijuna dolara na troškovima sprječavanja incidenata, no dobitak se ostvaruje tek kad zaposlenici znaju prepoznati pristranost modela ili tzv. halucinacije. Stoga se u obuci potiče propitivanje, a ne puko prihvaćanje nalaza.
Zaključak je jasan: problem nije umjetna inteligencija, nego nekritičko korištenje njezinih preporuka. Stručnjaci koji AI doživljavaju kao pomoćno sredstvo, a ne zamjenu za vlastitu prosudbu, ostat će korak ispred sve sofisticiranijih prijetnji u digitalnom okruženju.