Mnogi se sve češće obraćaju umjetnoj inteligenciji za savjete o ljubavi, poslu ili mentalnom zdravlju, no stručnjaci upozoravaju da takva praksa nosi ozbiljne rizike.
Profesor računalnih znanosti s Oxfordskog sveučilišta Mike Wooldridge ističe da je ChatGPT „doslovno dizajniran da vam kaže ono što želite čuti” te da „nema empatiju” ni osobno iskustvo čije bi razumijevanje moglo zamijeniti ljudskog sugovornika. Prema njegovim riječima, korisnici bi trebali pretpostaviti da će „sve što unesete u ChatGPT završiti u nekoj budućoj verziji sustava”, što upućuje na moguća curenja osjetljivih podataka.
Nejasna sudbina unesenih informacija Sve je više objava na društvenim mrežama u kojima ljudi ChatGPT-u povjeravaju osobne probleme. No još uvijek nije precizno poznato gdje se ti podaci pohranjuju ni tko im može pristupiti. Talijansko nadzorno tijelo za zaštitu podataka upravo je zbog takvih dvojbi 2023. privremeno zabranilo korištenje ChatGPT-ja, ocijenivši da OpenAI nema pravnu osnovu za „masovno prikupljanje i pohranjivanje osobnih podataka” te da izlaže maloljetnike neprimjerenom sadržaju.
„Ljudska cijena” treniranja modela Razvoj velikih jezičnih modela ima i drugu, manje vidljivu dimenziju. Radnici iz Kenije i drugih siromašnijih zemalja bili su plaćeni da prolaze kroz potresne opise seksualnog nasilja, rasizma i drugih oblika brutalnosti kako bi označili sadržaj koji se potom koristi za treniranje AI sustava.
Dva suprotna tabora Dok se jedni zaklinju da umjetnu inteligenciju neće ni dotaknuti, drugi joj prepuštaju sve, od školskih zadaća do intimnih ispovijesti. Stručnjaci podsjećaju da su međuljudski odnosi temeljeni na suosjećanju i razumijevanju—nečemu što kod ne može pružiti. Stoga savjetuju oprez: izbjegavajte dijeliti osjetljive podatke, ne oslanjajte se na ChatGPT kao na prijatelja ili terapeuta i razmislite kakav digitalni trag ostavljate.