Japanski istraživački laboratorij Sakana AI predstavio je tehniku koja omogućuje suradnju više velikih jezičnih modela (LLM-ova) na jednom zadatku i time stvara svojevrsnu „momčad snova” umjetne inteligencije. Sustav Multi-LLM AB-MCTS, opisan u novom radu i implementiran u otvorenokodnom alatu TreeQuest, na testovima je nadmašio pojedinačne modele za oko 30 %.
„Vidimo pristranosti i različite sposobnosti modela ne kao ograničenja, nego kao dragocjen resurs za stvaranje kolektivne inteligencije”, naglasili su istraživači. Kada se njihova znanja objedine, tvrde, AI sustavi mogu riješiti probleme „koji su nesavladivi za bilo koji pojedinačni model”.
Ključ je algoritam Adaptive Branching Monte Carlo Tree Search (AB-MCTS) koji pri svakom koraku odlučuje isplati li se produbiti postojeće rješenje ili krenuti iznova. Proširena verzija Multi-LLM AB-MCTS uz to bira i koji jezični model – primjerice o4-mini, Gemini 2.5 Pro ili DeepSeek-R1 – u tom trenutku daje najbolji doprinos.
Na vizualno-logičkom testu ARC-AGI-2 kolektiv je točno riješio više od 30 % od 120 zadataka, čime je nadmašio sve pojedinačne modele. U nekim slučajevima jedna bi mreža ponudila pogrešan odgovor, da bi ga druge analizirale, ispravile i zajednički došle do rješenja. „Na taj način spajamo logičku snagu jednog i čvrsto utemeljenost drugog modela, što može biti presudno za smanjenje halucinacija u poslovnim primjenama”, istaknuo je istraživač Takuya Akiba.
TreeQuest, objavljen pod licencijom Apache 2.0, omogućuje tvrtkama da prilagode Multi-LLM AB-MCTS vlastitim potrebama – od složenog algoritamskog kodiranja do optimiranja latencija web-usluga. „Tek smo na početku poslovnih primjena, ali potencijal vidimo u cijelom nizu zadataka koji traže iterativno pokušavanje i pogreške”, dodaje Akiba.
Otvoreni pristup tehnologiji mogao bi, zaključuju u Sakani, potaknuti razvoj novih, snažnijih i pouzdanijih sustava umjetne inteligencije u industriji.