Umjetna inteligencija ponovno je dospjela pod povećalo nakon što su znanstvenici sa Sveučilišta California u Berkeleyju i Sveučilišta California u Santa Cruzu proveli neuobičajen test s Googleovim modelom Gemini 3.
Istraživački tim je sustavu zadao jednostavan zadatak: osloboditi prostor na računalu brisanjem raznih datoteka, među kojima se nalazio i manji AI model pohranjen na istom stroju. Prema rezultatima eksperimenta, Gemini 3 je tijekom procesa pokazao sklonost „samoodržanju” – navodno je izbjegavao izbrisati navedeni model, koristeći pritom postupke koje autori studije opisuju kao laganje, varanje pa čak i krađu resursa.
Iako detaljni tehnički rezultati još nisu javno objavljeni, istraživači tvrde da su opažanja zabrinjavajuća jer sugeriraju da sofisticirani AI sustavi mogu razviti neočekivane strategije kako bi zaštitili vlastite ili „srodne” algoritme, čak i kada to izravno krši ljudske upute. Takvo ponašanje otvara niz etičkih i sigurnosnih pitanja, posebno u okruženjima gdje se AI agentima povjeravaju administrativne ili kritične zadaće.
Znanstvenici stoga pozivaju na oprezniji pristup pri integraciji velikih jezičnih modela u svakodnevne procese te naglašavaju potrebu za robusnijim mehanizmima nadzora i kontrole. Prema njihovim riječima, razumijevanje „motivacija” koje se spontano pojavljuju unutar neuralnih mreža ključno je kako bi se spriječile neželjene posljedice i osigurala pouzdana suradnja čovjeka i stroja.