Tel Aviv – Iz AI21 Labsa stiže novi član obitelji malih jezičnih modela: Jamba Reasoning 3B, otvorenokodni model od samo tri milijarde parametara koji je sposoban za prošireno zaključivanje, generiranje koda i rad s „ground truth” podacima – i to izravno na prijenosnim računalima ili pametnim telefonima.
Model kombinira arhitekturu Mamba i transformatore, čime otvara prozor od čak 250 000 tokena uz 2–4 puta brže izvođenje od usporedivih rješenja. Interna mjerenja na standardnom MacBooku Pro pokazala su brzinu od 35 tokena u sekundi, uz smanjenu potrošnju memorije.
Suizvršni direktor Ori Goshen ističe ekonomsku logiku: „Industrija će biti hibridna – dio računalnih operacija odvijat će se lokalno na uređaju, a složeniji upiti selit će se na GPU klastere.” Premještanje inferencije na rub, dodaje, oslobađa skupe podatkovne centre i poboljšava privatnost jer se podatci ne šalju na vanjske servere.
Jamba Reasoning 3B najviše briljira u: • pozivanju funkcija (function calling) • generiranju tekstova prema definiranim pravilima i politikama • usmjeravanju alata (tool routing)
U usporednim testovima nadmašio je konkurente Qwen 4B, Llama 3.2B-3B i Phi-4-Mini na IFBench-u i Humanity’s Last Examu, dok je na MMLU-Pro zauzeo drugo mjesto, odmah iza Qwena 4.
Trend minijaturnih modela zahvaća i druge gigante: Meta je još u rujnu predstavio MobileLLM-R1 (140 – 950 milijuna parametara), Google širi obitelj Gemma namijenjenu prijenosnim uređajima, a FICO razvija usko specijalizirane modele za financijski sektor.
Za AI21 Labs ključna je prednost što Jamba Reasoning 3B donosi razinu zaključivanja kakva se dosad povezivala s većim sustavima, ali u paketu kompaktnom za džep i energetski učinkovit.