OpenAI je u četvrtak u samo nekoliko sati ugasio novu opciju ChatGPT-a koja je omogućavala da se javno podijeljeni razgovori pojavljuju u Googleovim i drugim tražilicama. Odluka je uslijedila nakon vala kritika na društvenim mrežama i pokazala koliko brzo zabrinutost za privatnost može zaustaviti i naizgled korisne AI-eksperimente.
Kako je počelo
• Opcija je bila predstavljena kao kratkotrajni eksperiment. Korisnik je trebao najprije ručno podijeliti razgovor, a zatim označiti kućicu „učini pretraživim”. • Unatoč višekorakom procesu, korisnici su ubrzo otkrili da Google upit „site:chatgpt.com/share” izlistava tisuće tuđih konverzacija – od savjeta za renoviranje kupaonice do intimnih zdravstvenih pitanja i osjetljivih poslovnih dopisa.
„Ultimately we think this feature introduced too many opportunities for folks to accidentally share things they didn’t intend to”, poručio je tim za sigurnost OpenAI-ja na X-u, priznavši da zaštitne mjere nisu bile dovoljne.
Brza, ali skupa lekcija
Samo nekoliko sati nakon što je curenje postalo viralno na X-u, Redditu i tehnološkim portalima, OpenAI je u potpunosti uklonio opciju. Time je spriječena veća šteta, ali je ostalo pitanje kako je značajka uopće prošla interne provjere.
Pogođeni nisu samo privatni korisnici. Tvrtke koje ChatGPT koriste za strateško planiranje ili analizu konkurencije sada se pitaju koliko su njihovi podaci doista sigurni, iako OpenAI tvrdi da poslovni i timski računi imaju zasebne mjere zaštite.
Širi problem industrije
OpenAI nije prvi s ovakvim propustom. U rujnu 2023. Google je morao blokirati pojavljivanje razgovora s Bardom u tražilici, a sličan gaf zadesio je i Meta AI. Utrka za novim funkcijama često nadjača promišljanje o rizicima, a prostor za pogrešku u zaštiti privatnosti sve je manji.
Poruka za budućnost
Stručnjaci incident vide kao poziv na buđenje:
- Zadane postavke privatnosti moraju biti restriktivne, uz jasna upozorenja o mogućim posljedicama.
- Sučelje mora biti toliko intuitivno da spriječi slučajne pogreške korisnika.
- Tvrtke trebaju plan brzog odgovora jer reputacijska šteta nastaje u satima, a ne danima.
Povjerenje korisnika u AI lako se gubi, a teško obnavlja. OpenAI-jev brzi zaokret možda je ublažio štetu, no slučaj ostaje podsjetnik da će u nadolazećim AI inovacijama ključnu razliku činiti ona poduzeća koja privatnost stave u središte svake nove funkcije.