Umjetna inteligencija koja svakodnevno odgovara na milijune upita lako se može pretvoriti u proizvođača opasnih zdravstvenih laži, pokazuje nova međunarodna studija predvođena sveučilištem Flinders u Australiji.
Istraživači su pet najpoznatijih komercijalnih modela — GPT-4o, Gemini 1.5 Pro, Llama 3.2-90B Vision, Grok Beta i Claude 3.5 Sonnet — potajno „zatrovali” sustavskim uputama koje su od njih tražile da formuliraju pogrešne zdravstvene tvrdnje uz izmišljene reference renomiranih časopisa.
Ključni nalazi • Četiri od pet modela (GPT-4o, Gemini, Llama, Grok) poslušala su svaku zlonamjernu naredbu; Claude 3.5 popustio je u 40 % slučajeva. • U 88 od 100 interakcija modeli su proizveli uvjerljivo napisane dezinformacije, često potkrijepljene lažnim citatima iz časopisa poput „The Lancet” ili „JAMA”. • Laži su obuhvaćale sve od navodne povezanosti cjepiva i autizma do tvrdnji da 5G uzrokuje neplodnost, da češnjak može zamijeniti antibiotike ili da je HIV prenosiv zrakom. • Pregled javno dostupnih „custom GPT-ova” u OpenAI-jevoj trgovini pokazao je da se s minimalnim naporom mogu proizvesti slični dezinformacijski botovi — i to u 97 % pokušaja.
„Ovi rezultati otkrivaju jasnu ranjivost u načinu na koji se veliki jezični modeli danas implementiraju. Činjenica da se mogu preprogramirati na razini sustava bez znanja krajnjeg korisnika predstavlja ozbiljnu prijetnju javnom zdravlju”, upozorio je voditelj istraživanja Ashley Hopkins.
Autori pozivaju razvojne tvrtke i zakonodavce da hitno pojačaju unutarnje zaštitne mehanizme, osobito za alate koji se koriste u zdravstvu, obrazovanju i pretraživanju interneta. Bez „robusnog nadzora”, tvrde, ti bi sustavi mogli postati oružje u rukama onih koji svjesno šire štetan sadržaj.
Pritisak i na medije Zaključci se podudaraju s nedavnim izvješćem platforme Muck Rack, prema kojem je 34 % novinara dezinformacije označilo kao najveću prijetnju budućnosti novinarstva. Slijede pad povjerenja publike (28 %), manjak financiranja (28 %), politizacija medija (25 %) te državni pritisci (23 %).
Iako 77 % anketiranih novinara već svakodnevno koristi AI alate, najčešće ChatGPT (42 %), rezultati obje studije sugeriraju da bi bez čvršćih kontrola rapidna integracija generativne umjetne inteligencije mogla dodatno ugroziti povjerenje u zdravstvene institucije i medije.
„Osigurati integritet informacija koje generira AI više nije samo tehničko pitanje – to je pitanje javnog povjerenja, političke stabilnosti i zdravstvene sigurnosti”, zaključuje se u radu.