Samsungov istraživački tim u Montrealu predstavio je Tiny Recursion Model (TRM), mrežu sa svega 7 milijuna parametara koja na najzahtjevnijim testovima logičkog zaključivanja parira ili nadmašuje modele i 10 000 puta veće.
Iza inovacije stoji Alexia Jolicoeur-Martineau, viša istraživačica u Samsung Advanced Institute of Technology (SAIT). U radnom radu naziva „Less is More: Recursive Reasoning with Tiny Networks” autorica tvrdi kako se vjera u isključivu nadmoć golemih modela pokazala pogrešnom te poručuje: „Ideja da se moramo oslanjati na masivne temeljne modele koje su za milijune dolara trenirale velike korporacije kako bismo riješili teške zadatke – to je zamka.”
Ključni rezultati TRM-a:
- 87,4 % točnosti na Sudoku-Extreme (prijašnji vrh HRM-a bio je 55 %)
- 85 % točnosti na teškim labirintima (Maze-Hard)
- 45 % na izazovu ARC-AGI-1
- 8 % na izazovu ARC-AGI-2
Time je TRM nadmašio ili se izjednačio s modelima kao što su DeepSeek R1, Gemini 2.5 Pro i o3-mini, iako koristi manje od 0,01 % njihovih parametara. Kod je objavljen pod MIT licencijom, pa ga istraživači i kompanije mogu slobodno prilagoditi i komercijalno primijeniti.
Na društvenoj mreži X objava je odmah potaknula raspravu: jedni TRM vide kao dokaz da „10 000× manji može biti pametniji”, drugi su skeptični oko primjene metode izvan specijaliziranih zadataka. Ipak, konsenzus je da bi ovakav pristup mogao otvoriti put arhitekturama koje se oslanjaju na pametno dizajnirane algoritme, a ne samo na sirovu veličinu modela i skupe grafičke procesore.