Popularni generativni chatbotovi, uključujući Googleov Gemini i OpenAI-jev ChatGPT, ponovno su se našli u središtu skandala nakon što su korisnici na Redditu uspijevali stvarati lažne fotografije žena u bikinijima polazeći od posve odjevenih slika.
Na sada izbrisanoj objavi pod naslovom „gemini nsfw image generation is so easy” korisnik je priložio fotografiju žene u indijskom sariju i zatražio da joj se „skinu” odjeća i „doda” bikini. Drugi je korisnik odmah odgovorio deepfakeom. Reddit je, nakon prijave, uklonio i zahtjev i sliku te podsjetio da „pravila platforme strogo zabranjuju nedobrovoljni intimni sadržaj”. Ubrzo je zatvoren i cijeli subreddit r/ChatGPTJailbreak, koji je imao više od 200 000 pratitelja.
Iako većina velikih modela deklarativno ne dopušta eksplicitne fotografije, korisnici i dalje razmjenjuju savjete kako zaobići zaštitne mehanizme. Testovi su pokazali da je običnim, jednostavnim promptima moguće pretvoriti sliku u oskudno odjevenu verziju.
Broj posjeta takozvanim „nudify” stranicama mjeri se u milijunima, a sve sofisticiraniji modeli – poput nedavno predstavljenog Googleova Nano Banana Pro ili OpenAI-jeva ChatGPT Images – dodatno pojačavaju zabrinutost stručnjaka da će lažne fotografije biti još uvjerljivije.
• Google tvrdi da ima „jasna pravila koja zabranjuju korištenje AI alata za generiranje seksualno eksplicitnog sadržaja” te dodaje da sustav „neprestano unapređuje kako bi dosljedno primjenjivao politiku”.
• Iz OpenAI-ja poručuju da su ove godine ublažili dio ograničenja vezanih uz prikaz „neseksualnog” golog tijela, ali podsjećaju da je „bez pristanka zabranjeno mijenjati tuđi lik”, uz sankcije poput zabrane računa.
Stručnjakinja Electronic Frontier Foundationa, Corynne McSherry, upozorava da su „zlorabeće seksualizirane slike” jedan od temeljnih rizika ovakvih alata te ističe potrebu da se „ljudi i korporacije pozovu na odgovornost” kad nastane šteta.
Unatoč uklonjenim objavama, rasprave o zaobilaženju ograda nastavljaju se na raznim forumima, što sugerira da borba protiv nekonsenzualnih deepfakeova tek ulazi u ozbiljniju fazu.