Microsoftov istraživački tim izbacio je Phi-4, 14-milijardni jezični model koji se po sposobnostima nadmeće s daleko većim sustavima – ne zahvaljujući sirovoj veličini, nego promišljenoj selekciji podataka i preciznom finom ugađanju.
Za razliku od uobičajenog „pumpanja” parametara i golemih količina tekstova, Phi-4 je treniran na svega 1,4 milijuna pažljivo odabranih prompt-odgovor parova. Ključ je u takozvanim „poučljivim” rubnim primjerima: pitanjima koja nisu ni prejednostavna ni preteška, nego upravo na granici modelovih mogućnosti. Svaki tematski segment – matematika, kodiranje, logičko zaključivanje – najprije se ugađa zasebno, a potom se uz pomoć sintetskih preoblikovanja pretvara u zadatke koje je moguće automatski provjeriti.
Rad detaljno opisuje filtriranje i kombiniranje podataka te cjelokupni SFT (supervised fine-tuning) i RL postupak, dovoljno transparentno da ga manje poslovne ekipe mogu replicirati na otvoreno-izvornim modelima. Time Phi-4 služi kao praktični recept: kako precizno ciljan skup „pametnih” primjera može podići manji model nad konkurente s višestruko više parametara.
Trend prema kompaktnijim rješenjima već prati niz novijih sustava – od OpenAI-jeva o1-mini do Googleove Gemme i Alibaba-ina Qwen3 – no Phi-4 ostaje demonstracija da strategija „manje, ali pametnije” nije tek teoretska ideja nego provjerljiv put do vrhunskog performansa.