Većina popularnih generativnih chatbota – od Claudea i ChatGPT-a do Geminija i Mete – po zadanim postavkama koristi razgovore korisnika za daljnje treniranje svojih modela, a mogućnost isključivanja (opt-out) skriva se u postavkama.
• Anthropic je prošlog tjedna objavio da će nove verzije Claudea uvoditi učenje na temelju korisničkih chatova „radi poboljšanja otkrivanja nezakonitog ili štetnog sadržaja”. Korisnici mogu odbiti, ali moraju to sami aktivno zatražiti.
• Meta je još u travnju najavila da će njezine AI usluge koristiti i interakcije s korisnicima te javno dostupne osobne podatke s Facebooka i Instagrama. Usprkos valovima kritika, irski regulator nadležan za Metu dao je zeleno svjetlo u svibnju.
• OpenAI-jev ChatGPT i Googleov Gemini primjenjuju identičan model: osobni podaci automatski ulaze u bazu za treniranje, a korisnik ih mora ručno isključiti ako to ne želi.
Zabrinjavajuće je što mnogi ljudi s botovima dijele intimne ili osjetljive detalje – poneki ih čak koriste kao zamjenu za terapeuta. Čelnik OpenAI-ja Sam Altman već je javno upozorio da „razgovori s botom nisu zaštićeni liječničkom tajnom”.
EU zakon o zaštiti podataka zahtijeva valjanu pravnu osnovu za svaku obradu osobnih informacija. Tehnološke tvrtke uglavnom se pozivaju na „legitimni interes”, uz tvrdnju da modelu trebaju golemi skupovi podataka kako bi funkcionirao i napredovao. Dosadašnji pokušaji da se praksa, osobito Metina, zaustavi pred europskim nadzorom nisu urodili plodom.
Stručnjaci upozoravaju da nas sljedeći korak – AI agenti koji obećavaju potpomoć u svakodnevnim zadacima – vodi prema još većoj gladi za privatnim podacima. Ključno pitanje ostaje: hoće li korisnici zauzeti kontrolu nad vlastitim informacijama ili će ih sustavi i dalje šutke gutati?