Novo američko istraživanje pokazalo kako spriječiti „zaborav” velikih jezičnih modela
Znanstvenici iz Urbana-Champaigna tvrde da podešavanje samo dijela neuronske mreže sprječava „katastrofalni zaborav” i smanjuje troškove finog treniranja velikih jezičnih modela.
Novi energetski transformeri obećavaju snažnije ‘System 2’ razmišljanje u AI-u
Arhitektura energy-based transformer spaja verifikaciju i generiranje u jedan model, postiže brže treniranje, bolje zaključivanje i veću otpornost na nepoznate podatke.