Google je tiho uklonio prikaz sirovih rezonirajućih tokena – tzv. "Chain of Thought" (CoT) – iz svog najnaprednijeg modela Gemini 2.5 Pro i time izazvao bijes dijela razvojne zajednice. Dosad su programeri mogli pratiti svaku međukorakovnu „unutarnju misao” modela, što im je služilo kao ključni alat za dijagnostiku, ispravljanje pogrešaka i fino ugađanje radnih tokova.
Na forumu za AI razvoj jedan je korisnik upozorio: „Ne mogu točno dijagnosticirati probleme ako ne vidim sirovi chain of thought kao prije.” Drugi je napisao da se sada mora „nagađati” gdje je logika modela zakazala, što dovodi do „nevjerojatno frustrirajućih, ponavljajućih krugova ispravljanja”.
Google je, po uzoru na sličan potez OpenAI-jevih modela o-serije, zamijenio detaljan niz tokena kratkim sažetkom. Logan Kilpatrick iz Google DeepMinda pojasnio je da je promjena „čisto kozmetička” i usmjerena na „čišće korisničko iskustvo” u potrošačkoj verziji aplikacije, uz napomenu da je udio korisnika koji čitaju CoT u aplikaciji „vrlo mali”. Dodao je kako Google „čuje da želite sirove misli, vrijednost je jasna” te da će povratak te mogućnosti u razvojno okruženje AI Studio „biti predmet daljnjeg razmatranja”.
Odluka je, međutim, naišla na oštru kritiku poslovnih korisnika, koji tvrde da im se bez potpune vidljivosti povećava rizik uporabe modela u poslovno kritičnim sustavima. Tvrtke sada biraju između „vrhunskog, ali neprozirnog” modela i otvorenijih alternativa poput DeepSeek--R1 ili QwQ-32B, koje i dalje otkrivaju cijeli rezonirajući lanac.
Neki stručnjaci upozoravaju da je uloga CoT-a često precijenjena. Profesor umjetne inteligencije Subbarao Kambhampati smatra da antropomorfiziranje međutokena kao „misli” može biti zavaravajuće: „Većina korisnika ništa ne može razaznati iz gomile sirovih tokena koje modeli izbacuju.” Istraživanja, navodi, pokazuju da modeli mogu postizati iste rezultate čak i kada su trenirani na netočnim ili kaotičnim rezonirajućim tragovima.
Istodobno, skrivanje CoT-a stvara i kompetitivnu barijeru: raw tokeni mogu poslužiti konkurenciji za „destilaciju” – treniranje manjih modela koji oponašaju jače sustave. Oduzimanjem tog podatkovnog „zlata” Google otežava drugima repliciranje Geminijevih sposobnosti.
Rasprava oko CoT-a samo je najava šireg pitanja buduće transparentnosti umjetne inteligencije. Kako modeli postaju autonomniji i preuzimaju složenije zadatke, pritisak razvojne zajednice da ponovno dobije „pogled u glavu” stroja vjerojatno će rasti, a proizvođači će morati tražiti kompromis između korisničke uglađenosti, poslovne povjerljivosti i inženjerske provjerljivosti.