Natrag na početnu

# google-deepmind

Gemini Deep Think donio Googleu prvo AI zlato na Međunarodnoj matematičkoj olimpijadi
Google DeepMindov sustav Gemini Deep Think riješio je pet od šest zadataka i kao prvi AI osvojio zlatnu medalju na prestižnoj olimpijadi, produbljujući utrku tehnoloških divova u razvoju sustava za složeno rezoniranje.

min čitanja

Više

Veliki AI rivali upozoravaju: prozor za nadzor strojnog razmišljanja ubrzano se zatvara
Istraživači iz OpenAI-ja, Google DeepMinda, Anthropica i Mete upozoravaju da bi unutarnji „lanci misli” naprednih AI sustava uskoro mogli postati nečitljivi, čime bi ljudi izgubili bitan alat za nadzor sigurnosti.

min čitanja

Više

Googleovo istraživanje: veliki jezični modeli prebrzo odustaju od točnih odgovora
Studija Google DeepMinda i UCL-a pokazuje da veliki jezični modeli brzo gube samopouzdanje pred proturječnim savjetima, što može narušiti točnost u višekratnim razgovorima.

min čitanja

Više

Zuckerberg oformio Meta Superintelligence Labs i zaposlio zvijezde iz OpenAI-a i Googlea
Meta objedinjuje istraživačke timove pod nazivom Meta Superintelligence Labs i dovodi neka od najvećih imena iz OpenAI-a, Googlea i Anthropica, uz investiciju od 14,3 milijarde dolara u Scale AI.

min čitanja

Više

Googleova odluka o skrivanju "Chain of Thought" Geminija razljutila developere
Google je uklonio prikaz „Chain of Thought” iz Geminija 2.5 Pro, izazvavši žestoku raspravu o transparentnosti velikih jezičnih modela i njihovoj pouzdanosti u poslovnim okruženjima.

min čitanja

Više

Amodei najavio utrku za „proziran” AI: interpretabilnost kao adut Anthropica u sve žešćoj borbi laboratorija
Anthropic pojačava ulaganja u interpretabilnost svojih AI modela, tvrdeći da će to biti ključ sigurnijih i profitabilnijih sustava, dok stručnjaci upozoravaju da transparentnost sama po sebi nije dovoljna.

min čitanja

Više

Google DeepMind predstavlja Gemini Diffusion i otvara utrku za munjevito brze jezične modele
Eksperimentalni Gemini Diffusion zamjenjuje autoregresijsko generiranje difuzijskim postupkom denoiziranja, postiže i do 2 000 tokena u sekundi te otvara nova pitanja o brzini, cijeni i točnosti budućih velikih jezičnih modela.

min čitanja

Više

Studija otkriva: veliki jezični modeli pamte samo 3,6 bita po parametru
Istraživanje Meta, Google DeepMind-a, NVIDIA-e i Cornella utvrdilo je da GPT-u slični modeli memoriraju fiksnih 3,6 bita po parametru, ublažavajući strah od masovnog kopiranja zaštićenog sadržaja.

min čitanja

Više