Kineski startup MiniMax iznenadio je tehnološku zajednicu objavom MiniMax-M1, otvorenog modela velikog jezika (LLM) pod licencijom Apache 2.0. Model je već dostupan na Hugging Faceu i GitHubu te se može besplatno prilagođavati i koristiti u komercijalnim rješenjima.
Najveće prednosti
• Kontekstni prozor od 1 000 000 tokena i do 80 000 tokena izlaza, što višestruko nadmašuje GPT-4o (128 000) i izjednačava se s Googleovim Gemini 2.5 Pro. • Dvije varijante: M1-40k i M1-80k, nazvane po maksimalnoj „budžetu razmišljanja” odnosno duljini generiranog teksta. • Hibridna arhitektura Mixture-of-Experts s „lightning attentionom” smanjuje troškove izvođenja; na duljini od 100 000 tokena traži tek 25 % FLOP-ova potrebnih DeepSeeku R1. • Trening je koštao samo 534 700 USD, zahvaljujući vlastitom RL algoritmu CISPO koji skraćuje procese važnog uzorkovanja. • Struktura s 456 milijardi parametara (45,9 milijardi aktivnih po tokenu).
Rezultati na testovima
– AIME 2024 (matematika): 86,0 % – LiveCodeBench (kod): 65,0 % – SWE-bench Verified: 56,0 % – TAU-bench: 62,8 % – OpenAI MRCR (4-needle): 73,4 %
M1 prema tim brojkama prestiže otvorene konkurente DeepSeek-R1 i Qwen3-235B-A22B, dok zatvoreni modeli poput GPT-4o i Geminija još uvijek vode na pojedinim ljestvicama.
Što donosi tvrtkama
• Znatno niže operativne troškove zbog manje potrošnje hardverskih resursa. • Obrada vrlo dugih dokumenata bez prethodnog rezanja ili segmentiranja. • Mogućnost lokalne, sigurnije implementacije bez slanja podataka trećim stranama. • Lakšu integraciju kroz preporučeni backend vLLM ili biblioteku Transformers. • Ugrađeni API za razgovorni bot s funkcijama internetskog pretraživanja, generiranja videa i slika, sinteze govora i kloniranja glasa.
Objava M1-ice prva je u sklopu najavljenog „MiniMaxWeeka”, pa se idućih dana očekuju dodatne novosti iz tvrtke koja očito cilja na kombinaciju otvorenosti, dugog konteksta i ekstremne učinkovitosti kao recept za sljedeću generaciju AI aplikacija.