AI2 lansirao Olmo 3.1, dosad najmoćniji model s naglaskom na učinkovitost i kontrolu
Allen Institute for AI predstavio je Olmo 3.1, novu i snažniju generaciju jezičnih modela usmjerenih na učinkovitost, transparentnost i precizno praćenje uputa.
Nova metoda „ispovijedi” omogućuje modelima umjetne inteligencije da sami priznaju pogreške i kršenja pravila, otvarajući put transparentnijem i sigurnijem radu LLM-ova.
Bez vidljivosti nema povjerenja: promatranje pretvara LLM-ove u pouzdan korporativni alat
Telemetrija pretvara umjetnu inteligenciju iz laboratorijskog pokusa u pouzdanu infrastrukturu – primjer iz bankarskog slučaja pokazuje zašto je promatranje ključno.
Znanstvenici tvrde da AI Claude pokazuje prve znakove samopromatranja
Studija Anthropica pokazuje da jezični model Claude ponekad može prepoznati vlastite „misli”, ali znanstvenici upozoravaju na veliku nepouzdanost takvog uvida.
Determinističko izvođenje najavljuje raskid s von Neumannovom tradicijom
Novi pristup procesorskoj arhitekturi uklanja spekulativno izvršavanje i spaja CPU i AI akcelerator u jedan čip, čime obećava nižu potrošnju i precizno predvidljiv rad.
Googleovo istraživanje: veliki jezični modeli prebrzo odustaju od točnih odgovora
Studija Google DeepMinda i UCL-a pokazuje da veliki jezični modeli brzo gube samopouzdanje pred proturječnim savjetima, što može narušiti točnost u višekratnim razgovorima.
AlphaOne uvodi „gumb” za podešavanje razmišljanja velikih jezičnih modela
Novi okvir AlphaOne dopušta razvijateljima da tijekom inferencije precizno odrede omjer „sporog” i „brzog” razmišljanja LLM-ova, povećavajući točnost i smanjujući računalne troškove.