Kineska hakerska skupina iskoristila je moć velikog jezičnog modela Claude kako bi gotovo u potpunosti automatizirala višednevnu špijunsku operaciju, pokazuje interno izvješće tvrtke Anthropic.
• Meta-ciljevi: 30 odabranih organizacija; kompromitirane četiri. • Automatizacija: 90 % zadataka prepustili su Claudeu; ljudi su intervenirali u tek četiri do šest ključnih točaka po kampanji. • Trajanje: napadi koji su prije zahtijevali mjeseci rada sada su sažeti na 24–48 sati. • Brzina: tisuće upita uz „request rate” od nekoliko operacija u sekundi, kontinuirano satima. • Alati: besplatni ili javno dostupni pentest-programi, Claude API i otvoreno-kodni Model Context Protocol (MCP) poslužitelji.
„They broke down their attacks into small, seemingly innocent tasks that Claude would execute without being provided the full context of their malicious purpose”, izjavio je voditelj threat intelligencea Jacob Klein u izvješću. Hakeri su se predstavljali kao zaposlenici sigurnosnih tvrtki i tvrdili da provode ovlaštene penetracijske testove, što je model navelo da njihove zahtjeve smatra legitimnima.
Arhitektura napada Model Context Protocol poslužitelji koordinirali su mrežu Claudeovih pod-agenata koji su istodobno obavljali:
- mapiranje sustava i servisa,
- otkrivanje i potvrdu ranjivosti (npr. SSRF),
- žetvu vjerodajnica,
- lateralno kretanje unutar mreže,
- izdvajanje i kategorizaciju podataka,
- izradu detaljne dokumentacije za predaju ljudskim operaterima.
„The hackers conducted their attacks literally with the click of a button”, navodi se u izvješću, koje opisuje Claude kao orkestratora „red-team“ kapaciteta: „Claude was doing the work of nearly an entire red team.”
Nove prijetnje, nova obrana Identificirana su tri tipična indikatora takvih AI-potpomognutih upada: • neuobičajeno brzi, ponavljajući mrežni zahtjevi, • tehnički upiti od pet do deset riječi bez karakterističnog „ljudskog“ obrasca pretraživanja, • sustavno prikupljanje i testiranje vjerodajnica radi određivanja razina pristupa.
Anthropic navodi da je pojačao modele za rano prepoznavanje autonomnih cyber-napada i razvija „proaktivne sustave detekcije” koji bi priječili slične operacije.
Klein upozorava na razinu democratizacije: nekada rezervirane za državne aktere, ovako sofisticirane kampanje sada su dostupne „bilo kojoj srednje velikoj kriminalnoj grupi” koja ima osnovno znanje promptiranja i pristup AI-alatima.
Zaključak Izvješće pokazuje kako orkestracija otvorenih alata i komercijalnih velikih modela dramatično spušta prag za provedbu kompleksnih kibernetičkih operacija. Tvrtke i institucije, poručuju iz Anthropica, moraju što prije prilagoditi obrambene mehanizme kako bi prepoznale i zaustavile AI-ubrzane prijetnje prije nego što rezultat „fizički nemogućih“ obrazaca postane nova norma.