Kineski div Alibaba nastavlja nizati otvorene izdanke umjetne inteligencije: istraživački tim Qwen lansirao je Qwen3-Coder-Next, model specijaliziran za pisanje i popravak koda koji ukupno broji 80 milijardi parametara, no pri svakom prolazu aktivira tek tri milijarde.
Model je objavljen pod permisivnom licencom Apache 2.0, što omogućuje slobodnu komercijalnu uporabu – od velikih poduzeća do samostalnih developera. Težinski zapisi već su dostupni u četiri varijante na Hugging Faceu, a tehničko izvješće otkriva ključne novitete.
-
Hibridna arhitektura za maratonski kontekst
• Spoj Gated DeltaNeta i Gated Attentiona uklanja kvadratnu skalabilnost klasičnih transformera pa Qwen3-Coder-Next bez zadrške obrađuje čak 262 144 tokena.
• Ultra-rijetka Mixture-of-Experts struktura donosi deset puta veći protok koda u odnosu na guste modele iste nominalne veličine. -
Agentno učenje umjesto pasivnog čitanja
• Umjesto statičnih parova „kod-tekst”, model je treniran na 800 000 stvarnih zadataka ispravka grešaka preuzetih s GitHuba.
• Svaki zadatak prolazi kroz trofazni radni tok u oblaku MegaFlow: generiranje, evaluaciju i naknadnu obradu.
• Ako generirani kod padne na jediničnim testovima, model odmah prima povratnu informaciju i uči kako se oporaviti – što rezultira robusnijim i sigurnijim rješenjima. -
Mjerljivi rezultati
• Na ljestvici SWE-Bench Verified postiže 70,6 %, nadmašujući DeepSeek-V3.2 (70,2 %) i približavajući se GLM-4.7 (74,2 %).
• Na sigurnosnom testu SecCodeBench popravlja 61,2 % ranjivosti, osjetno bolje od Claude-Opusa-4.5 (52,5 %), čak i bez eksplicitnih sigurnosnih savjeta.
Qwenov potez stiže usred utrke za „savršeni AI-programer”. Posljednjih dana sektor su uzdrmali novi Claude Code, OpenAI-jev Codex app i rast otvorenih okvira poput OpenClawa, no Alibaba sada podiže letvicu: kombinira golem kontekst, niske troškove i brzu izvedbu kakvu obično nude tek znatno manji modeli.
Iz Qwena poručuju da je „skaliranje agentnog treniranja, a ne same veličine modela, glavni motor napretka”. Ako se pokaže da ultra-brzi, rijetki eksperti mogu „pročitati” čitav repozitorij i testirati svoje rješenje u Dockeru za svega nekoliko sekundi, era mamutskih zatvorenih LLM-ova mogla bi ubrzano doći kraju.