Rasprostranjena primjena umjetne inteligencije u Indiji otvorila je novi, iznimno toksičan kanal za uznemiravanje žena, pokazuje izvješće Rati Foundationa i organizacije Tattle. Helpline koji vodi Rati primio je stotine prijava digitalnog nasilja, a oko 10 % sada uključuje AI-generirane fotografije ili videozapise, najčešće „razgolićene” slike nastale u tzv. nudify aplikacijama.
„The chilling effect is true”, kaže istraživačica digitalnih prava Rohini Lakshané, koja zbog potencijalne zloupotrebe više ne objavljuje svoje fotografije. Mlada pravnica Gaatha Sarvaiya priznaje da je pri svakoj objavi „immediately pops in that, ‘OK, maybe it’s not safe. Maybe people can take our pictures and just do stuff with them,’”.
Izvješće navodi kako su meta manipulacija bile i javne osobe – pjevačica Asha Bhosle, novinarka Rana Ayyub te glumica Rashmika Mandanna. No posljedice za anonimne žene mogu biti još dramatičnije. U jednom slučaju fotografija koju je žena priložila uz zahtjev za kredit pretvorena je u lažnu pornografsku sliku. Kad je odbila ucjenu, montirana je fotografija s njezinim brojem telefona počela kružiti WhatsAppom, uzrokujući „barrage of sexually explicit calls and messages from unknown individuals”. Žrtva se osjećala „shamed and socially marked, as though she had been ‘involved in something dirty’”.
Autori izvješća upozoravaju da „AI makes the creation of realistic-looking content much easier”, što zlostavljanje čini masovnijim i bržim. Platforme poput YouTubea, Instagrama i WhatsAppa često reagiraju sporo ili nedosljedno; čak i kada uklone sporni sadržaj, on se ubrzo pojavi negdje drugdje. „One of the abiding characteristics of AI-generated abuse is its tendency to multiply. It is created easily, shared widely and tends to resurface repeatedly”, zaključuje Rati.
U Indiji ne postoji specifičan zakon koji bi regulirao deepfakeove, pa se žrtve moraju oslanjati na opće propise o kibernetičkom zlostavljanju – dugotrajan i birokratski proces. Sarvaiya stoga ocjenjuje da je pravni sustav „ill equipped to deal with AI deepfakes”, dok organizacija Equality Now upozorava da je komunikacija policije s digitalnim platformama „opaque, resource-intensive, inconsistent and often ineffective”.
Rezultat je, tvrdi suautorica izvješća Tarunima Prabhakar, masovno povlačenje žena iz virtualnog prostora: osjećaj „fatigue” vodi do toga da „you just completely recede from these online spaces”. Dok se tehnološki divovi tek sporadično obračunavaju s aplikacijama za „razgolićavanje”, a zakonodavstvo kaska, tisuće Indijki svakodnevno biraju tišinu i anonimnost kao jedini pouzdani štit protiv najnovijeg oblika digitalnog nasilja.