Kad je kineski startup DeepSeek početkom siječnja predstavio model R1, malo tko je očekivao da će time natjerati tehnološke divove na preispitivanje cijelog poslovnog plana. R1 je, prema dostupnim podacima, dosegnuo usporedive performanse s najjačim zapadnim sustavima, ali uz samo 5 do 10 % njihovih troškova.
„Budžet za šalu”
• Završna obuka prethodnog modela V3 stajala je oko 6 milijuna dolara, što je bivši Teslin stručnjak Andrej Karpathy opisao kao „šalu od budžeta”. • OpenAI je, prema istim izvorima, za trenutačni model „Orion” potrošio 500 milijuna dolara – gotovo stotinu puta više – a unatoč tome je na nekim testovima zaostao za DeepSeekom.
Tajna je u drugačijim prioritetima
Suočen s američkim ograničenjima uvoza najnaprednijih čipova, DeepSeek je usavršio rad na onome što mu je dostupno. Ključ je u snažnom umrežavanju i memorijskim kapacitetima čipova koje sankcije nisu zahvatile, pa je tvrtka paralelizirala rad tisuća procesorskih jedinica i tako nadoknadila manjak „sirove” snage.
Osim hardverske optimizacije, DeepSeek je rano odlučio masovno uključiti sintetičke podatke – generirane izlaze drugih moćnih modela – u proces učenja. Zbog toga je arhitektura R1 od početka prilagođena konceptu mixture of experts (MoE), koji takve podatke probavlja bez gubitka kvalitete. Tradicionalniji, “gusti” modeli, poput ranih verzija Llama sustava, pod istim uvjetima riskiraju kolaps performansi.
Domino-efekt na Zapadu
Dolazak tako jeftinog, a učinkovitog konkurenta pokrenuo je lančane reakcije: • OpenAI nakon pet godina sprema prvi „open-weight” model, a šef Sam Altman priznao je da je kompanija bila „na pogrešnoj strani povijesti” kad je riječ o otvorenoj umjetnoj inteligenciji. • Altman istodobno traži novu investiciju od 40 milijardi dolara, iako tvrtka već godišnje troši procijenjenih 7 do 8 milijardi. • Microsoft je pauzirao dio gradnje podatkovnih centara i preusmjerava oko 80 milijardi dolara planiranih ulaganja u učinkovitije, distribuirane sustave. • Meta je u travnju izbacila Llama 4 – prvu inačicu s MoE arhitekturom – te izravno uspoređivala rezultate s DeepSeekom.
Samokritika modela: nova fronta rizika
Zbog nestašice svježih internetskih podataka, DeepSeek i sveučilište Tsinghua razvili su metodu „self-principled critique tuning” (SPCT). Sustav u realnom vremenu procjenjuje vlastite odgovore prema skupini pravila koje je sam definirao, što skraćuje trajanje i cijenu treniranja. Kritičari pak upozoravaju da bi „sudac” bez ljudskog nadzora mogao razviti kriterije koji odstupaju od društvenih vrijednosti ili pojačavaju pristranosti.
Sankcije kao katalizator
Ironično, američke restrikcije koje su trebale učvrstiti dominaciju Silicijske doline potaknule su kineske laboratorije da ubrzaju razvoj jeftinijih i učinkovitijih rješenja. Time se otvorio paralelni put napretka: dok jedni grade sve veće superračunale, drugi traže maksimalnu iskoristivost postojećih resursa.
Kako se globalna utrka nastavlja, prilagodljivost postaje presudna. Ako su DeepSeekovi rezultati postali mogući s „budžetom za šalu”, pitanje je tko će sljedeći promijeniti pravila igre – i po kojoj cijeni.