Google je objavio novu umjetno-inteligentnu jezgru pod imenom FunctionGemma, specijalizirani model s 270 milijuna parametara zamišljen da ukloni jedan od najvećih uskih grla modernog razvoja aplikacija – pouzdanost na samom rubu mreže.
Za razliku od sveprisutnih „sveznalica” koje odgovaraju na opća pitanja, FunctionGemma je usmjerena na jednu, vrlo konkretnu zadaću: pretvaranje korisničkih naredbi na prirodnom jeziku u strukturirani kod koji mobilne aplikacije, preglednici ili IoT uređaji mogu izravno izvršiti – i to bez ikakvog povezivanja s oblakom.
Objava označava taktički zaokret timova Google DeepMind i Google AI Developers. Dok industrija i dalje juri prema modelima s bilijunskim brojem parametara smještenima u udaljenim podatkovnim centrima, Google ovdje polaže okladu na kategoriju „Small Language Models” (SLM) koji rade lokalno na telefonima i drugim krajnjim uređajima.
Za inženjere umjetne inteligencije i poslovne graditelje to znači novi arhitektonski gradivni blok: privatnost na prvom mjestu i gotovo neprimjetna latencija, jer se složena logika odvija upravo tamo gdje nastaje i potreba – na samom uređaju.