Američki startup Anthropic objavio je u ponedjeljak tehnički izvještaj u kojem tvrdi da su tri kineske tvrtke – DeepSeek, Moonshot AI i MiniMax – organizirale „industrijske, koordinirane kampanje” za izvlačenje sposobnosti iz njegova modela Claude. Prema navodima iz izvješća, laboratoriji su se služili s oko 24 000 lažnih korisničkih računa i generirali više od 16 milijuna interakcija s Claudeom, čime su prekršili uvjete korištenja i regionalna ograničenja tvrtke.
„Ove kampanje ubrzano rastu po opsegu i sofisticiranosti. Vrijeme za reakciju je kratko, a prijetnja nadilazi bilo koju pojedinačnu tvrtku ili regiju”, upozorava Anthropic u dokumentu objavljenom na blogu, pozivajući na „brzu, koordiniranu akciju industrije, kreatora politika i globalne AI zajednice”.
Izvješće je dodatno zaoštrilo ionako napete odnose između američkih i kineskih razvojnih centara umjetne inteligencije. Dok Washington raspravlja treba li pooštriti ili ublažiti izvozna ograničenja za napredne čipove, Anthropic – na čelu s izvršnim direktorom Dariom Amodeijem – već se dugo zalaže za strože mjere prema Pekingu i nove objave izravno povezuje s tom političkom raspravom.
Što je destilacija i zašto je sporna? Destilacija (engl. distillation) je legitiman postupak u kojem se „student-model” trenira na odgovorima moćnijeg „učitelja”. Time se uz znatno manja ulaganja postižu slične performanse. Problem nastaje kada konkurent masovno prikuplja odgovore zatvorenog modela i na njima trenira vlastiti sustav, krateći godine istraživanja i stotine milijuna dolara troškova.
Tehnika je dospjela u središte pozornosti u siječnju 2025. kada je DeepSeek lansirao model R1, čija je razina zaključivanja bila usporediva s američkim rivalima, ali uz znatno niži trošak. U to je vrijeme direktor Databricksa Ali Ghodsi za CNBC izjavio: „This distillation technique is just so extremely powerful and so extremely cheap, and it's just available to anyone.”
Ubrzo su istraživači sa Sveučilišta California, Berkeley replicirali moćan model za 450 dolara u samo 19 sati. Timski projekti sa Stanforda i Sveučilišta Washington pokazali su da je sličan pothvat moguće izvesti u 26 minuta za manje od 50 dolara računalnih resursa, dok je zajednica Hugging Face prikazala sličnu demonstraciju unutar 24 sata. Sam DeepSeek potom je objavio obitelj destiliranih modela pod liberalnom MIT licencom, dopuštajući daljnje prilagodbe i komercijalnu uporabu.
Anthropic, međutim, tvrdi da posljednji slučaj prelazi granicu otvorenog eksperimenta i predstavlja „namjerno, prikriveno i velikoprodajno izvlačenje intelektualnog vlasništva” koje provode dobro financirani komercijalni laboratoriji „pod jurisdikcijom kineske vlade”. Tvrtka nije najavila pravne korake, ali naglašava da će zaustavljanje takvih praksi zahtijevati zajednički odgovor industrije i regulatora.
Kineske kompanije zasad nisu javno reagirale na optužbe, dok se u Silicijskoj dolini produbljuje strah da bi destilacija – i moguća državna potpora – mogla ubrzati utrku u razvoju velikih jezičnih modela na način koji zapadne tvrtke više ne mogu financijski ili tehnički pratiti.