Umjetna inteligencija već može u sekundi pregledati tisuće objava i dati presudu o njihovoj točnosti, no nova istraživanja upozoravaju: bez povjerenja korisnika i razumijevanja kako ljudi oblikuju uvjerenja, ni najtočniji algoritam neće suzbiti dezinformacije.
Znanstveni rad objavljen u časopisu Nature ističe da su mnoge kampanje protiv lažnih vijesti zasnovane na pretpostavci da ljudi prvenstveno traže istinu, pa će nakon suočavanja s točnim podatkom automatski promijeniti mišljenje. Autori tvrde da to ignorira činjenicu da većina prosuđuje sadržaj kroz prizmu ograničenog vremena, prethodnog znanja i društvenog konteksta. Razmišljanje je, kažu, „ograničeno i usmjereno na ciljeve”, pa korisnike više zanima je li informacija korisna nego je li apsolutno točna.
Metapouke umjesto pukih ispravaka
Zbog toga istraživači predlažu jačanje metakognitivnih vještina – poticanje ljudi da provjeravaju koliko su sigurni u vlastite zaključke i da lakše prepoznaju neizvjesnost. Takav pristup, pokazuju pokusi, dugoročnije smanjuje pogreške od jednostavnog serviranja „prave” informacije.
U drugom eksperimentu s više od 1 300 sudionika znanstvenici su testirali automatske provjere činjenica pogonjene velikim jezičnim modelima. Sudionici su lakše prihvaćali ispravke koje su potvrđivale njihova postojeća uvjerenja, dok su one koje su im proturječile uglavnom odbacivali. Otpor je slabio kada im se naglasilo da je sustav izrazito precizan, što upućuje na ključnu ulogu povjerenja u samu tehnologiju.
Brzi rast na društvenim mrežama
Analiza 1,6 milijuna zahtjeva korisnika iz Sjedinjenih Država prema botovima Grok i Perplexity na platformi X (veljača – rujan 2025.) pokazuje koliki je zamah dobilo AI-fakt-čekiranje. Najčešće pitanje je: „Je li to točno?”, a politički sadržaj dominira. Aktivnost naglo raste tijekom velikih vijesti, a istraživači uočavaju jasnu stranačku dinamiku: republikanci i demokrati češće provjeravaju objave republikanski nastrojenih profila, koje modeli istovremeno najčešće ocjenjuju netočnima.
Hibridna budućnost provjere činjenica
Sva tri rada slažu se u jednom: iako veliki jezični modeli sve bolje preslikavaju procjene profesionalnih fact-checkera i mogu pomaknuti korisničke stavove, učinak ovisi o političkom identitetu, prethodnim uvjerenjima i transparentnosti objašnjenja. Sustavi i dalje teško pružaju dubinske, kontekstualizirane argumente, pa istraživači predviđaju hibridni model – brzinu i opseg stroja uz ljudske urednike koji osiguravaju vjerodostojnost i povjerenje javnosti.