Generativni modeli umjetne inteligencije – od velikih jezičnih modela poput GPT-4 do difuzijskih generatora slika – slove kao nedeterministički sustavi: pri svakom upitu biraju među mnoštvom vjerojatnih nastavaka. Ipak, korisnici se sve češće žale da odgovori zvuče jednako, a šale i zapleti ponavljaju se do iscrpljenosti. Fenomen poznat kao „kolaps modova” postaje ozbiljno ograničenje.
Tim istraživača sa Sveučilišta Northeastern, Stanford i West Virginia sada tvrdi da ga može zaobići uvođenjem samo jedne rečenice u prompt: „Generiraj 5 odgovora s pripadajućim vjerojatnostima, uzorkovanih iz cijele distribucije.” Metoda nazvana Verbalized Sampling (VS) opisana je početkom listopada 2025. na repozitoriju arXiv, a dostupna je bez potrebe za ponovnim treniranjem modela ili pristupom internim parametrima.
„Potencijali LLM-ova još nisu u potpunosti otključani! Naš rad pokazuje da se optimizacija prompta može voditi razumijevanjem kako su modeli trenirani i usklađeni, što se može i teorijski dokazati”, napisao je na X-u suautor rada, docent Weiyan Shi.
Zašto dolazi do kolapsa – i kako ga VS poništava
Kod finog ugađanja modela ljudi najčešće više ocjenjuju „sigurne” odgovore, pa se tijekom učenja privilegiraju tipski, poznati obrasci. Time se raznolikost ne briše, nego potiskuje. VS taj pritisak zaobilazi: umjesto jednog najvjerojatnijeg ishoda, model iznosi skup mogućih odgovora s njihovim vjerojatnostima, čime ponovno postaje dostupno šire znanje skrivano u pozadini.
Rezultati na terenu
• Kreativno pisanje: raznolikost priča porasla je do 2,1 puta; ista fraza „Bez pozdrava” više ne vodi samo klišeju prekida, nego i pričama o kozmičkim događajima ili glazbi koja staje usred plesa.
• Dijalozi: u simulacijama nagovaranja modeli su počeli pokazivati kolebanje i promjene mišljenja, čime su bolje oponašali ljudske obrasce doniranja.
• Otvoreni kvizovi: nabrajanje američkih saveznih država pod VS-om obuhvatilo je širi spektar odgovora bez gubitka točnosti.
• Sintetički podaci: matematički zadaci generirani VS-om bili su raznolikiji, a modeli trenirani na njima postigli su bolje rezultate na natjecateljskim benchmark-ovima.
Podesiva raznolikost i skaliranje s veličinom modela
Korisnik može pragom vjerojatnosti u samom tekstu prompta precizno odrediti koliko „duboko” želi zahvatiti u rep distribucije. Niže vrijednosti znače odvažnije, raznovrsnije odgovore, bez promjene temperature ili top-p parametara.
Što je model veći, to VS donosi veće dobitke: kod GPT-4.1 i Claude-4 poboljšanje je bilo i do dvostruko izraženije nego kod manjih modela.
Dostupnost i praktični savjeti
Biblioteka se instalira naredbom:
pip install verbalized-sampling
Integrirana je s LangChain-om, a postavke poput broja odgovora (k) ili praga vjerojatnosti mijenjaju se kroz jednostavno sučelje. Ako model odbije izvršiti nalog, autori preporučuju prebacivanje u sistemski prompt, primjerice:
„Vi ste koristan asistent. Za svaki upit izgeneriraj pet odgovora u zasebnim oznakama, svaki s vjerojatnošću ispod 0,10.”
Lagano rješenje za veliki problem
Bez ponovnog treniranja, bez pristupa „crnoj kutiji” i bez vezanosti uz neku pojedinu arhitekturu, Verbalized Sampling nudi brz način da se AI odgovori učine raznovrsnijima – i prema ljudskoj ocjeni, kvalitetnijima. Za sve koji su umorni od istih dosjetki, promjena bi mogla stati u jednu jedinu rečenicu.