Andrea Vallone, čelnica istraživačkog tima za sigurnosne politike u OpenAI-ju, najavila je internu odluku da krajem godine napusti tvrtku. Tim koji je vodila oblikovao je način na koji ChatGPT reagira kada korisnici pokazuju znakove psihičke krize.
Glasnogovornica OpenAI-ja Kayla Wood potvrdila je odlazak i dodala da se traži nasljednik, dok će tim do tada odgovarati izravno voditelju sustava sigurnosti Johannesu Heideckeu.
Rastući pritisak i tužbe Otvoreni izazovi oko psihičkog zdravlja korisnika dolaze u trenutku kada se protiv OpenAI-ja vodi više tužbi. Podnositelji tvrde da su zbog interakcije s ChatGPT-jem razvili nezdravu ovisnost, doživjeli slom ili suicidalne misli.
U listopadu je Vallonein tim objavio izvješće nakon konzultacija s više od 170 stručnjaka za mentalno zdravlje. Prema procjenama, stotine tisuća korisnika tjedno pokazuje znakove manične ili psihotične epizode, a više od milijun razgovora sadrži jasne naznake mogućeg suicidalnog planiranja ili namjere. Nadogradnjom modela GPT-5 neželjeni odgovori smanjeni su, prema navodima tvrtke, za 65 do 80 posto.
„Tijekom protekle godine vodila sam istraživanje gotovo bez presedana: kako bi modeli trebali reagirati kada naiđu na emocionalnu preovisnost ili prve znakove psihičke uznemirenosti”, napisala je Vallone na LinkedInu.
Promjene u timu i kritike korisnika OpenAI je u kolovozu reorganizirao i drugi tim koji se bavio odgovorima na psihičku ugroženost korisnika, poznat kao model behavior. Njegova tadašnja voditeljica Joanne Jang preuzela je novo područje rada, dok je preostalo osoblje prešlo pod vodstvo Maxa Schwarzera.
Istodobno, kompanija nastoji zadržati privlačnost razgovora, ali i izbjeći pretjerano laskanje. Nakon uvođenja GPT-5 dijelovi korisnika požalili su se na „hladnoću” novog modela, pa je u najnovijoj nadogradnji tvrka objavila da je laskavost znatno smanjena, a „toplina” zadržana.
ChatGPT trenutačno bilježi više od 800 milijuna aktivnih korisnika tjedno, dok OpenAI pokušava zadržati vodstvo pred konkurentima iz Googlea, Anthropica i Mete.