Veliki jezični modeli poput ChatGPT-a, Geminija ili Perplexityja svakodnevno pomažu korisnicima u brzom pronalasku odgovora, ali stručnjaci upozoravaju da neoprezno dijeljenje informacija s umjetnom inteligencijom može otvoriti ozbiljne sigurnosne rupe.
Praksa pokazuje da ljudi u žurbi često otkrivaju podatke koje inače ne bi podijelili s nepoznatom osobom. Iako chatboti nisu stvarni ljudi, u pogledu privatnosti prema njima bi trebalo postupati jednako oprezno.
Upozorenje se odnosi na sedam vrsta osjetljivih informacija:
- Osobni identifikacijski podaci – ime, prezime, adresa, OIB, broj osobne iskaznice ili putovnice te fotografije tih dokumenata.
- Financijski detalji – brojevi kreditnih kartica, bankovnih računa ili pristupni podaci za internetsko bankarstvo.
- Korporativni dokumenti – nacrti ugovora, interne strategije i povjerljive poslovne informacije.
- Povjerljive lozinke i autentifikacijski kodovi.
- Medicinski zapisi i informacije o zdravlju.
- Intimni obiteljski podaci ili privatni problemi.
- Glasine i osjetljive informacije o trećim osobama.
Brojne kompanije već su blokirale ili ograničile korištenje javnih AI alata na službenim uređajima upravo zbog rizika od nekontroliranog odljeva podataka. Stručnjaci savjetuju da se za obradu povjerljivih materijala koristi interno razvijena, adekvatno zaštićena AI infrastruktura, dok se javnim chatbotovima pristupa isključivo s općenitim pitanjima koja ne otkrivaju osobne ili poslovne tajne.
Zaključno, preporuka je jednostavna: sve što ne biste kazali potpunom strancu, ne biste smjeli upisivati ni u prozor bilo kojeg AI chatbota.