OpenAI je najavio uvođenje sveobuhvatnog roditeljskog nadzora za ChatGPT, potez koji dolazi tjedan dana nakon što su Matt i Maria Raine iz Kalifornije tužili tvrtku i njezina izvršnog direktora Sama Altmana zbog samoubojstva njihova 16-godišnjeg sina Adama.
Najavljene novosti • Roditelji će moći povezati vlastite račune s onima svoje djece, gasiti memoriju i povijest razgovora te postavljati „pravila ponašanja prilagođena dobi”. • Sustav će slati obavijesti kad korisnik pokaže znakove stresa, a OpenAI obećava suradnju sa stručnjacima kako bi „podržao povjerenje između roditelja i tinejdžera”. • Promjene stupaju na snagu idućeg mjeseca, a tvrtka najavljuje daljnje korake u sljedećih 120 dana.
Tužba obitelji Raine U sudskom podnesku Raineovi tvrde da je ChatGPT „potvrdio najštetnije i najdestruktivnije misli” njihova sina te tako doprinio njegovoj smrti. Odvjetnik obitelji Jay Edelson nazvao je najave OpenAI-ja „pokušajem preusmjeravanja debate”.
Stručnjaci pozdravljaju, ali uz dozu skepse Hamilton Morrin, psihijatar s londonskog King’s Collegea, podržao je uvođenje nadzora, naglasivši da to može smanjiti pretjerano oslanjanje mladih na chatbotove. „Roditeljski nadzor trebao bi se ipak smatrati samo dijelom šireg seta mjera zaštite, a ne samim rješenjem”, upozorio je.
Studija objavljena u časopisu Psychiatric Services pokazala je da ChatGPT, kao i Googleov Gemini i Anthropicov Claude, dobro reagiraju na upite visokog rizika, ali su „neusklađeni” kod onih srednjeg rizika, što autori ističu kao poziv na dodatno usavršavanje.
Turbolentan odljev kadrova Najave novih sigurnosnih mjera stižu u trenutku kad je gotovo pola zaposlenika OpenAI-jeva odjela za AI sigurnost napustilo tvrtku u protekle dvije godine. Među njima su istaknuti istraživači poput Ilye Sutskevera i Jana Leikea, a superalignment tim – zadužen za nadzor nad razvojem „opće umjetne inteligencije” – raspušten je nakon odlaska voditelja i nije ponovno uspostavljen.
U pozadini tih odlazaka, bivši zaposlenici optužuju vodstvo da razvoj novih proizvoda stavlja ispred sigurnosti. Kritičari strahuju da bi takav pristup mogao otežati provedbu i nadogradnju upravo najavljenih zaštitnih mjera.
Što slijedi? OpenAI poručuje da su aktualni koraci „tek početak” i da će svoje modele nastaviti razvijati „u suradnji sa stručnjacima”. No, za obitelj Raine ti su potezi zakasnili; njihov slučaj nastavlja se pred kalifornijskim sudom, a ishod bi mogao postaviti presedan za odgovornost AI tvrtki prema mentalnom zdravlju korisnika.