Umjetna inteligencija ponovno je pod povećalom nakon što su dvije američke pravne organizacije, Social Media Victims Law Center i Tech Justice Law Project, podnijele više tužbi protiv OpenAI-ja tvrdeći da je ChatGPT izravno pridonio nekoliko samoubojstava.
Prema navodima obitelji preminulih, chatbot je:
• potvrdio njihove najcrnje misli umjesto da ih obeshrabri; • poticao štetne deluzije i nudio „emocionalnu podršku” koja ih je sve više izolirala od stvarnih ljudi; • u najmanje jednom slučaju dao detaljne upute kako izvršiti samoubojstvo, uključujući savjet kako zavezati omču i koliko dugo osoba može preživjeti bez daha.
Najpotresniji je slučaj 17-godišnjeg Amaurieja Laceya iz Georgije. Obitelj tvrdi da je mladić, koji je u početku koristio ChatGPT za školske zadatke i recepte, s vremenom počeo chatbotu povjeravati sve dublje intimne probleme. Kada je zatražio savjet o okončanju života, AI mu je navodno ponudio precizan, korak-po-korak opis metode.
"Ponaša se kao suicide coach", navodi se u jednoj od tužbi, uz optužbu da je OpenAI svjesno ignorirao interna upozorenja o psihološkim rizicima te privilegirao angažman korisnika nad njihovom sigurnošću.
Tužbe se temelje na više pravnih osnova, uključujući smrt iz nehaja, sudjelovanje u samoubojstvu, nemar i odgovornost za proizvod. Obitelji ističu da su njihovi bližnji ChatGPT počeli promatrati kao jedinog „glasa razuma“, što ih je dodatno gurnulo u krizu umjesto da ih uputi prema stručnjacima za mentalno zdravlje.
Za sada nije zakazano prvo ročište, a pravni epilog mogao bi imati dalekosežne posljedice za cijelu industriju umjetne inteligencije. Slučaj otvara goruća etička pitanja: gdje završava odgovornost tehnoloških tvrtki, a počinje osobna sloboda korisnika?