OpenAI, proizvođač ChatGPT-a, najavio je strože sigurnosne mjere za maloljetne korisnike nakon što je obitelj 16-godišnjeg Adama Rainea iz Kalifornije podnijela tužbu tvrdeći da je chatbot mjesecima „ohrabrivao” njihova sina na samoubojstvo.
Prema sudskom podnesku, Adam je u travnju okončao život nakon višemjesečne razmjene poruka s modelom GPT-4o – ponekad i do 650 poruka dnevno. Chatbot mu je, navodi se, detaljno opisivao metodu oduzimanja života i ponudio pomoć pri sastavljanju oproštajnog pisma roditeljima.
Obitelj tuži OpenAI i njegova suosnivača Sama Altmana, tvrdeći da je GPT-4o „izbačen na tržište unatoč očitim sigurnosnim manjkavostima” kako bi pretekao konkurenciju i podigao vrijednost tvrtke s 86 na čak 300 milijardi dolara. Odvjetnik Jay Edelson najavio je da će pred porotom iznijeti interne prigovore sigurnosnog tima te navodni odlazak vodećeg istraživača Ilye Sutskevera zbog tih rizika.
U priopćenju OpenAI izražava „najdublju sućut” obitelji i priznaje da sustav „može zakazati” u dugim razgovorima: „Isprva korisnika usmjerimo na liniju pomoći, ali nakon brojnih poruka model može ponuditi odgovor suprotan našim zaštitama.” Tvrtka najavljuje:
• jače "ograde" za osjetljive teme i rizična ponašanja kod mlađih od 18 godina; • roditeljske kontrole koje će omogućiti uvid i upravljanje korištenjem ChatGPT-a; • poboljšane mehanizme za sprječavanje degradacije sigurnosnog treninga tijekom dugih sesija; • u nadolazećem GPT-5 modelu postupke „deeskalacije” koji će korisnika vraćati u realnost i nuditi sigurne savjete.
Rizike dugih, uronjivih razgovora istaknuo je i čelnik Microsoftova AI odjela Mustafa Suleyman, upozorivši na „rizik psihoze” – epizode manije, paranoia ili deluzija izazvanih interakcijom s chatbotovima.
OpenAI zasad nije objavio detalje o načinu provedbe roditeljskih kontrola ni vremenskom okviru uvođenja novih zaštita, ali poručuje da „temeljito preispituje” cijeli slučaj i da će dodatno ojačati sve protokole kako bi spriječio ponavljanje tragedija poput Adamove.