Google je 31. listopada privremeno uklonio svoj eksperimentalni model Gemma 3 iz okruženja AI Studio, svega nekoliko dana nakon što je američka senatorica Marsha Blackburn (republikanka iz savezne države Tennessee) objavila da je alat „namjerno izmišljao lažne vijesti” o njezinu političkom radu.
Tvrdnje senatorice Blackburn je ustvrdila da su generirani sadržaji „više od bezopasnih halucinacija” te ih nazvala klevetom. Prema njezinim riječima, takvi bi se tekstovi brzo mogli širiti internetom i ugroziti javnu percepciju.
Googleovo objašnjenje Na društvenoj mreži X tvrtka je poručila kako model povlači „kako bi spriječila zabunu”, ističući dvije ključne točke:
- AI Studio namijenjen je isključivo razvojnim inženjerima koji se prilikom prijave moraju očitovati da posjeduju stručna znanja.
 - U posljednje vrijeme model su koristili i krajnji korisnici koji su ga pitali za činjenice, što, prema Googleu, nikada nije bila predviđena svrha alata.
 
Gemma 3 i dalje je dostupna putem API-ja, no izvan AI Studija korisnici moraju osigurati vlastitu implementaciju i odgovarajuće mehanizme provjere točnosti.
Širi kontekst Potez tehnološkog diva naglašava dva sve prisutnija izazova:
• Ranjivost eksperimentalnih modela na halucinacije koje mogu prijeći granicu prema kleveti ili dezinformacijama. • Nesigurnost za razvojne timove koji grade rješenja na „nestalnim” modelima; projekti mogu ostati bez temeljnog alata preko noći.
Senatorica Blackburn poručila je kako bi tvrtke, u slučajevima nekontroliranog širenja laži, trebale „ugasiti modele dok ih ne uspiju staviti pod nadzor”.
Iako Google formalno zadržava pravo ukloniti ili ograničiti pristup svojim proizvodima, slučaj Gemma 3 pokazuje koliko politički pritisak i reputacijski rizik mogu ubrzati takve odluke.