Vodeći AI asistenti poput ChatGPT-a, Copilota, Geminija i Perplexityja promašuju bit vijesti u zapanjujuće visokom postotku, pokazuje međunarodno istraživanje koje su proveli Europska radiodifuzijska unija (EBU) i BBC.
Rezultati u brojkama
- 3 000 testiranih odgovora na 14 jezika.
- 45 % odgovora sadržavalo je najmanje jednu ozbiljnu netočnost.
- 81 % bilo je opterećeno nekim oblikom problema (netočnost, loše navođenje izvora ili miješanje mišljenja i činjenica).
- 33 % imalo je teške pogreške u navođenju izvora.
- 20 % sadržavalo je zastarjele ili potpuno netočne informacije.
Posebno je loše prošao Googleov Gemini: u 72 % odgovora izostavio je ili pogrešno naveo izvore, naspram manje od 25 % kod ostalih testiranih sustava. Primjeri propusta uključuju pogrešno prikazane zakonske izmjene o jednokratnim e-cigaretama te slučaj u kojem je ChatGPT mjesecima nakon smrti pape Franje i dalje navodio da je on aktualni papa.
Rizik za povjerenje javnosti
U istraživanju je sudjelovalo 22 javna medijska servisa iz 18 zemalja, među kojima Francuska, Njemačka, Španjolska, Ukrajina, Velika Britanija i Sjedinjene Države. Voditelj medijskih operacija EBU-a Jean Philip De Tender upozorio je: „Kada ljudi više ne znaju čemu mogu vjerovati, na kraju ne vjeruju ničemu, a to može obeshrabriti sudjelovanje u demokratskim procesima.”
Broj korisnika koji se za vijesti oslanjaju na umjetnu inteligenciju rapidno raste. Prema Digital News Reportu 2025. Reutersova instituta, AI asistente za praćenje aktualnosti koristi sedam posto ukupne online publike, a čak 15 % onih mlađih od 25 godina.
Poziv industriji na odgovornost
Istraživači ističu da se AI alati sve češće koriste umjesto tradicionalnih internetskih tražilica, što netočnosti čini još opasnijima. Autori izvješća stoga pozivaju tehnološke tvrtke da ubrzaju rad na smanjenju tzv. „halucinacija”, unaprijede provjeru činjenica i jasno označe izvore kako bi se očuvalo povjerenje publike u informacijski ekosustav.