Natrag na početnu
# google-deepmind
Gemini Deep Think donio Googleu prvo AI zlato na Međunarodnoj matematičkoj olimpijadi
Google DeepMindov sustav Gemini Deep Think riješio je pet od šest zadataka i kao prvi AI osvojio zlatnu medalju na prestižnoj olimpijadi, produbljujući utrku tehnoloških divova u razvoju sustava za složeno rezoniranje.
min čitanja
Više
Veliki AI rivali upozoravaju: prozor za nadzor strojnog razmišljanja ubrzano se zatvara
Istraživači iz OpenAI-ja, Google DeepMinda, Anthropica i Mete upozoravaju da bi unutarnji „lanci misli” naprednih AI sustava uskoro mogli postati nečitljivi, čime bi ljudi izgubili bitan alat za nadzor sigurnosti.
min čitanja
Više
Googleovo istraživanje: veliki jezični modeli prebrzo odustaju od točnih odgovora
Studija Google DeepMinda i UCL-a pokazuje da veliki jezični modeli brzo gube samopouzdanje pred proturječnim savjetima, što može narušiti točnost u višekratnim razgovorima.
min čitanja
Više
Zuckerberg oformio Meta Superintelligence Labs i zaposlio zvijezde iz OpenAI-a i Googlea
Meta objedinjuje istraživačke timove pod nazivom Meta Superintelligence Labs i dovodi neka od najvećih imena iz OpenAI-a, Googlea i Anthropica, uz investiciju od 14,3 milijarde dolara u Scale AI.
min čitanja
Više
Googleova odluka o skrivanju "Chain of Thought" Geminija razljutila developere
Google je uklonio prikaz „Chain of Thought” iz Geminija 2.5 Pro, izazvavši žestoku raspravu o transparentnosti velikih jezičnih modela i njihovoj pouzdanosti u poslovnim okruženjima.
min čitanja
Više
Amodei najavio utrku za „proziran” AI: interpretabilnost kao adut Anthropica u sve žešćoj borbi laboratorija
Anthropic pojačava ulaganja u interpretabilnost svojih AI modela, tvrdeći da će to biti ključ sigurnijih i profitabilnijih sustava, dok stručnjaci upozoravaju da transparentnost sama po sebi nije dovoljna.
min čitanja
Više
Google DeepMind predstavlja Gemini Diffusion i otvara utrku za munjevito brze jezične modele
Eksperimentalni Gemini Diffusion zamjenjuje autoregresijsko generiranje difuzijskim postupkom denoiziranja, postiže i do 2 000 tokena u sekundi te otvara nova pitanja o brzini, cijeni i točnosti budućih velikih jezičnih modela.
min čitanja
Više