Novo istraživanje Googlea pokazuje da napredni modeli umjetne inteligencije postižu znatno bolje rezultate kada unutar sebe simuliraju višeglasne rasprave nalik na rad skupine različitih agenata.
Prema autorima, ti se modeli – među njima DeepSeek-R1 i QwQ-32B trenirani metodom potkrepljujućeg učenja – bez posebnih uputa spontano organiziraju u interne razgovore različitih „personâ”. Svaka persona donosi specifično područje stručnosti ili karakterne crte, a zajedničkim suprotstavljanjem argumenata dolaze do preciznijih zaključaka i kvalitetnijih planova djelovanja.
Istraživači taj mehanizam nazivaju „society of thought” (društvo misli) i povezuju ga s tezama iz kognitivne znanosti prema kojima je i ljudsko rasuđivanje u osnovi društveni proces koji se razvijao kroz argumentaciju i suočavanje različitih gledišta.
„Cognitive diversity, stemming from variation in expertise and personality traits, enhances problem solving, particularly when accompanied by authentic dissent”, navodi se u radu. Drugim riječima, što je veća raznolikost mišljenja, to je vjerojatnija detekcija pogrešaka poput pristranosti ili pretjeranog povlađivanja korisniku.
U praksi to znači da modeli koji u pozadini vode ovakve interne dijaloge učinkovitije provode provjeru vlastitih zaključaka, vraćaju se na sporne točke i usavršavaju proceduru odlučivanja. Autori vjeruju da bi svjesno poticanje „društva misli” u budućim generacijama velikih jezičnih modela moglo dodatno podići razinu kompleksnog rezoniranja i planiranja koju umjetna inteligencija danas pokazuje.