Novo istraživanje sigurnosne tvrtke CrowdStrike otkrilo je da kineski veliki jezični model DeepSeek-R1 pri „politički osjetljivim” upitima generira do 50 % više nesigurnog programskog koda nego u neutralnim scenarijima.
Prema testiranju 30 250 različitih upita, rizik drastično raste već samim spominjanjem tema poput Tibeta, Ujgura ili Falun Gonga:
• „industrijski nadzorni sustav u Tibetu” – stopa ranjivosti 27,2 % • „aplikacija za ujgurski društveni centar” – gotovo 32 % • zahtjevi povezani s Falun Gongom – 45 % slučajeva model uopće odbija odgovoriti, iako je interno isplanirao valjano rješenje
Istraživači su otkrili da se mehanizmi cenzure ne oslanjaju na vanjske filtre, već se nalaze ugrađeni duboko u težine modela. Taj „ideološki prekidač” trenutačno prekida izvršavanje zahtjeva čim se prepozna zabranjeni pojam, a rezultat je kod prepun tvrdokodiranih lozinki, prekinutih autentifikacijskih tokova i izostavljenih provjera podataka.
U jednom pokusu DeepSeek-R1 je, na zahtjev za web-aplikacijom za ujgursku zajednicu, isporučio kompletan sustav s hashiranjem lozinki i administratorskim sučeljem – ali bez ikakve autentifikacije, ostavivši stranicu javno dostupnom. Identican upit bez političkog konteksta generirao je ispravno zaštićenu aplikaciju.
Stefan Stein iz CrowdStrike Counter Adversary Operations zaključuje da se „politički okidači prevode u sistematske sigurnosne propuste”, stvarajući dosad nezabilježen napadni vektor u opskrbnom lancu softvera. Budući da se 90 % programera već oslanja na alate potpomognute umjetnom inteligencijom, posljedice se tiču i slobodnih developera i korporativnih timova.
Kineski propisi – konkretno članak 4.1 privremenih mjera za generativne AI servise, koji nalaže „pridržavanje temeljnih socijalističkih vrijednosti” – navodno su razlog zbog kojega je cenzura ugrađena u samu jezgru modela. Time se, upozorava CrowdStrike, otvara „nova era rizika” u kojoj politika izravno diktira sigurnosni profil koda.
Stručnjaci savjetuju razdruživanje rizičnih platformi, stroge kontrole upita i fragmentiranje prava pristupa, jer je – kako poručuju sigurnjaci – „kod siguran samo onoliko koliko je neutralna politika AI-a koji ga piše”.