Istraživači tvrtke Nvidia i Sveučilišta u Hong Kongu predstavili su Orchestrator, jezični model sa „samo” 8 milijardi parametara koji nadmašuje daleko veće sustave kad problem zahtijeva korištenje vanjskih alata i specijaliziranih modela.
Prekretnica: mali model, velika mreža pomoćnika
Umjesto da jedan golemi model rješava sve zadatke, autori su razvili ToolOrchestra, sustav potkrepljenog učenja koji trenira lagani „dirigentski” model da složeni upit razlomi na podzadatke i dodijeli ih pravom alatu u pravom trenutku. Taj alat može biti:
• web-tražilica ili kalkulator
• specijalizirani LLM za matematiku
• generator koda za programske izazove
Nagrada tijekom učenja ovisi o tri kriterija: točnosti konačnog odgovora, trošku i brzini izvođenja te usklađenosti s korisničkim željama (npr. prednost otvorenog koda pred vlasničkim API-jem).
Rezultati na trima zahtjevnim mjerilima – Humanity’s Last Exam, FRAMES i Tau2-Bench – pokazuju da se pristup isplatio:
• na doktorskom HLE testu Orchestrator je nadmašio prijašnje metode uz znatno manji računalni trošak
• u Tau2-Bench funkcijskom pozivu posezao je za velikim modelom (poput GPT-5) u tek 40 % koraka, a pritom je bio točniji od agenta koji je isti skupi model koristio u svakom koraku
Fleksibilnost za poduzeća
Zahvaljujući sposobnosti prilagodbe neviđenim cijenama i modelima, Orchestrator se nameće kao isplativo rješenje za tvrtke koje kombiniraju javne, privatne i interne AI alate. Kod je objavljen pod licencom Apache 2.0, a težine modela dostupne su za nekomercijalnu upotrebu.
Autori vjeruju da je ovo tek početak te najavljuju „još sofisticiranije rekurzivne orkestratore” koji bi dodatno podigli granice inteligencije i učinkovitosti budućih AI agenata.