Federalna vlada Sjedinjenih Država dala je svim agencijama šest mjeseci da uklone tehnologiju tvrtke Anthropic iz svojih radnih tokova. Sama odluka poslužila je kao stres-test: većini organizacija tek tada postaje jasno gdje se popularni model Claude zapravo krije u njihovim procesima.
Nevidljivi slojevi ovisnosti
• Samo 15 % direktora informacijske sigurnosti (CISO) tvrdi da ima potpunu vidljivost nad softverskim opskrbnim lancem, pokazalo je istraživanje Panoraysa iz siječnja 2026. Prije godinu dana taj je udio iznosio tek 3 %.
• Prema anketi BlackFoga, 49 % zaposlenika u tvrtkama s više od 500 ljudi koristi AI alate bez odobrenja poslodavca, a čak 69 % članova uprava smatra to prihvatljivim.
• IBM je u Izvješću o troškovima povreda podataka za 2025. procijenio da „shadow AI” čini 20 % svih sigurnosnih incidenata i povećava prosječni trošak proboja za 670 000 USD.
Kombinacija tih brojki objašnjava zašto direktiva pogađa i organizacije koje nikada nisu potpisale ugovor s Anthropicom. CRM sustav može u pozadini pozivati Claude, servis za podršku korisnicima može bez znanja klijenta slati svaki tiket istom modelu – prekid veze na jednom mjestu ruši cijeli niz.
„Modeli nisu zamjenjivi”
„Ako tražite graf ovisnosti koji uključuje drugu i treću generaciju AI poziva, većina tvrtki mora ga crtati ispočetka – i to pod pritiskom”, upozorava Merritt Baer, glavna direktorica sigurnosti u Enkrypt AI i bivša zamjenica CISO-a u AWS-u.
Baer podsjeća da klasični sigurnosni programi počivaju na statičnoj imovini, dok je AI „dinamičan, slojevit i sve neizravniji”. Zamjena modela nije puko okretanje prekidača: „Promijene se formati izlaza, latencija, sigurnosni filtri i razine halucinacija. Kontrole valja ponovno validirati, ne samo funkcionalnost.”
Četiri poteza u 30 dana
Baer predlaže brz, ali sustavan pristup koji se može provesti unutar mjesec dana:
- Mapirati put izvršavanja, ne samo dobavljače. Na razini gatewaya, proxyja ili same aplikacije bilježiti koji servisi pozivaju modele, kamo idu i koju klasu podataka nose.
- Prepoznati točke nadzora koje stvarno kontrolirate. Osigurati mehanizme na ulazu (što ulazi u model), na izlazu (što izlazi) i u orkestracijskom sloju gdje se obavljaju AI agenti i cjevovodi.
- Provesti „kill test” za ključnog AI dobavljača. U testnom okruženju ugasiti API ključ i 48 sati pratiti što staje, što se tiho degradira, a što generira pogreške za koje ne postoje protokoli.
- Iznuditi potpunu objavu pod-procesora i modela. Od dobavljača zahtijevati popis modela na koje se oslanjaju, lokacije hostinga i planove za zamjenu u nuždi.
Posljedice za vojno-industrijski lanac
Anthropic tvrdi da osam od deset najvećih američkih kompanija već koristi Claude. Tvrtke poput AWS-a i Palantira, koje drže milijarde dolara vrijedne obrambene ugovore, sada moraju dokazati da njihovi procesi ne dodiruju zabranjeni model – ili pronaći alternativu.
Jedan visoki dužnosnik Pentagona opisao je odvajanje od Claudea kao „ogromnu glavobolju”. Ako je tako u najbogatije opremljenoj sigurnosnoj organizaciji na svijetu, pitanje za korporativne CISO-e glasi: koliko bi to trajalo kod vas?
Lekcija iz sjene
Sigurnosni timovi već su jednom proživjeli val „shadow IT-a” kada su zaposlenici masovno uvodili SaaS alate bez suglasnosti. Tada su pomogli CASB-ovi, centralizirana prijava i analiza troškova. AI ovisnosti, međutim, ne ostavljaju takve tragove.
„Kod SaaS-a je nova aplikacija značila novi login, novu bazu podataka, stavku u zapisnicima. Kod AI-a se ovisnost krije unutar tuđeg proizvoda, poziva se dinamički i često ostaje nevidljiva”, kaže Baer.
Savezna zabrana Anthropica samo je razotkrila ono što je već postojalo: duboku, slabo dokumentiranu mrežu AI poziva. Sljedeća prisilna migracija možda neće dati ni šest mjeseci fore, pa stručnjaci poručuju – nacrtajte kartu prije nego što krene nevrijeme.