Američki medicinski časopis Annals of Internal Medicine opisao je neuobičajen slučaj 60-godišnjaka koji je, nakon što je tražio savjet od ChatGPT-a kako iz prehrane izbaciti kuhinjsku sol, završio u bolnici s bromizmom – trovanjem bromidom.
Prema izvješću liječnika s Medicinskog fakulteta Sveučilišta Washington u Seattleu, pacijent je na internetu naišao na tekst o štetnosti natrijeva klorida. Potom je chatbotu postavio pitanje kako izbjegavati klorid te, slijedeći dobivene informacije, tijekom tri mjeseca počeo uzimati natrijev bromid. Taj je spoj početkom 20. stoljeća služio kao sedativ, a pretjerano uzimanje tada je bilo povezano s gotovo deset posto psihijatrijskih hospitalizacija.
Bez zapisa razgovora liječnici ne mogu sa sigurnošću reći što je točno stajalo u uputama, no kada su sami postavili slično pitanje, ChatGPT je među mogućim zamjenama za klorid naveo i bromid, bez upozorenja o rizicima i bez dodatnih protupitanja – suprotno onome što bi učinio zdravstveni stručnjak. Autori ističu da takve AI platforme „mogu generirati znanstvene netočnosti, ne uspijevaju kritički raspraviti rezultate i poticati dezinformacije”.
Pacijent je u bolnicu stigao uvjeren da ga susjed truje. Patio je od jake žeđi, imao je akne na licu, nesanicu i paranoju prema ponuđenoj vodi. U manje od 24 sata pokušao je pobjeći; zbog psihotičnih simptoma prisilno je hospitaliziran, a nakon stabilizacije potvrđen je bromizam.
OpenAI je prošloga tjedna predstavio GPT-5 i naglasio da će nova verzija bolje prepoznavati rizične zdravstvene upite i„ signalizirati moguće zabrinutosti”, no i dalje naglašava da chatbot nije zamjena za profesionalnu skrb. Slučaj iz Seattlea objavljen je prije predstavljanja GPT-5 i odnosi se na raniju verziju sustava.
Liječnici zaključuju da će ubuduće morati rutinski provjeravati koriste li pacijenti umjetnu inteligenciju za medicinske savjete, jer krivo tumačenje dekontekstualiziranih informacija može dovesti do izbjegljivih, a potencijalno opasnih, posljedica po zdravlje.