Nvidia je lansirala novu generaciju svojih velikih jezičnih modela pod nazivom Nemotron 3, oslanjajući se na hibridnu mixture-of-experts (MoE) arhitekturu kako bi poboljšala točnost i pouzdanost AI-agenata.
Tvrtka nudi tri inačice:
• Nemotron 3 Nano – 30 milijardi parametara, namijenjen ciljanima i energetski učinkovitima zadacima.
• Nemotron 3 Super – 100 milijardi parametara, dizajniran za višestruke agente i složenije rezoniranje.
• Nemotron 3 Ultra – oko 500 milijardi parametara, namijenjen najzahtjevnijim sustavima i dubinskoj analizi.
Ključ tehnološkog skoka je hibridni Mamba-Transformer MoE pristup, razvijen na temelju istraživanja sveučilišta Carnegie Mellon i Princeton. Taj pristup omogućuje modelu da obrađuje do milijun tokena u jednom kontekstu, čime se smanjuju troškovi računalnih resursa kod vrlo dugih ulaza.
Potpredsjednica za generativni softver Kari Briski istaknula je da je najnovija serija rezultat učenja iz prijašnjih verzija: „We believe that we are uniquely positioned to serve a wide range of developers who want full flexibility to customize models for building specialized AI by combining that new hybrid mixture of our mixture of experts architecture with a 1 million token context length.”
Među prvim organizacijama koje testiraju ili implementiraju Nemotron 3 nalaze se Accenture, CrowdStrike, Cursor, Deloitte, EY, Oracle Cloud Infrastructure, Palantir, Perplexity, ServiceNow, Siemens i Zoom. Prema Nvidia-i, nova linija otvara dodatnu fleksibilnost i performanse poduzećima koja razvijaju višestruke autonomne agente, dok istodobno ostaje skalabilna i ekonomična zahvaljujući MoE konceptu.