'Deepfakes' pornogràfics: Quan la IA despulla la teva intimitat i vulnera els teus drets
Entre el 2022 i el 2023, la quantitat de pornografia deepfake creada ha augmentat un 464%La pornografia fake és una forma de violència, sobretot cap a la dona perquè manipula i destrueix la reputació de l'afectada
Tot i que les imatges no siguin reals, l'impacte i la repercussió a les víctimes és molt alt
"Desvesteix a qualsevol amb el nostre servei gratuït", diu el missatge de benvinguda d'una pàgina web per crear deepfakes pornogràfics. No s'ha de ser cap expert per trobar aquestes webs ni tampoc per fer-les servir, només cal pujar-hi una foto de cos sencer i esperar menys d'un minut per obtenir el resultat esperat. Per fer un vídeo porno deepfake de 60 segons, calen menys de 25 minuts i costa 0€ (si la web és gratuïta, encara que també les hi ha de pagament) utilitzant només una imatge del rostre d’algú, segons dades de l’informe State of deepfakes 2023 de Home Security Heroes. No és res nou, els primers deepfakes van començar amb dones famoses: els rostres de Jennifer Lawrence o Scarlett Johansson eren retallats i incrustats en escenes pornogràfiques que després eren penjades en pàgines per a adults, tant en vídeo com en imatges. "La creació d'imatges sexuals creades per intel·ligència artificial, o deepfakes sexuals, no es contempla, encara, com un delicte específic en el Codi Penal. Ara bé, atesa la idea de la violència de gènere com tota aquella violència que en la seva extensió s'exerceix contra les dones, la creació d'aquesta mena d'imatges no deixa de ser una eina i una forma de violència més contra aquestes", explica Rocío Pina, professora dels Estudis de Psicologia i Ciències de l'Educació i del grau de Criminologia de la Universitat Oberta de Catalunya (UOC). "Es desinforma, es manipula i es destrueix la reputació de la víctima de la mateixa manera que ho fa el revenge porn (porno de venjança) o la sextorsió", afegeix.
D'acord amb l'estudi abans esmentat, entre el 2022 i el 2023, la quantitat de pornografia deepfake creada va augmentar un 464%, passant de 3.725 vídeos el 2022 a 21.019 el 2023, un patró alarmant segons els mateixos investigadors de l'informe. "Aquestes aplicacions es fonamenten en sistemes d'intel·ligència artificial generatius, en aquest cas imatges: creen un algorisme que s'ha entrenat amb moltíssimes imatges i que s'ha combinat amb una aplicació web o una aplicació mòbil, en la qual l'aportació d'entrada és una imatge i la de sortida una altra imatge, però s'hi aplica una transformació, que en aquest cas és un nu", explica Josep Curto, professor dels Estudis d'Informàtica, Multimèdia i Telecomunicació de la UOC.
Aquest fenomen vulnera 2 grans drets: la protecció de dades o privadesa, i també la intimitat, honor i pròpia imatge. “Es vulnera la normativa de protecció de dades perquè hi ha una difusió d'informació que, encara que sigui essencialment falsa, s'utilitzen dades personals reals, com el rostre d'una persona o de vegades fins i tot la veu, i això comporta sovint un tractament de dades personals sense consentiment de l'afectat. A més, la vulneració de la normativa també s'ocasiona a l'hora de compartir o difondre aquestes creacions amb IA a terceres persones o a través de xarxes socials en obert, també sense el consentiment de l'afectat. Per tant, la norma obliga a demanar el permís de l'interessat no només per a la creació d'aquestes imatges sinó també per a la seva difusió posterior a un alt nombre de persones o en xarxes socials”, detalla Eduard Blasi, professor col·laborador dels Estudis de Dret i Ciència Política de la UOC i expert en dret a la privadesa.
A més, cal destacar la naturalesa d'aquesta informació i l'impacte sobre els subjectes afectats. En particular, afegeix l'expert, “aquestes imatges comporten sovint un tractament de dades sensibles, ja que la informació està relacionada amb la vida íntima o sexual d'una persona i, en funció de la imatge generada mitjançant aquesta tecnologia, es pot ocasionar també una lesió al dret a l'honor, intimitat i/o pròpia imatge de la persona”, detalla Blasi.
El 99% del fake dirigit contra les dones
"La immensa majoria dels vídeos tenen les dones com a víctimes, que veuen vulnerat el seu dret a la pròpia imatge, convertida en un objecte de consum pornogràfic. Té un efecte psicològic important perquè representa unes pràctiques sexuals que, encara que mai hagin ocorregut en realitat, són molt realistes", afirma Cristina Pujol, professora dels Estudis de Ciències de la Informació i de la Comunicació de la UOC i investigadora del grup GAME. Així ho confirma l'informe State of deepfake 2023, que afirma que el 99% del contingut pornogràfic deepfake està protagonitzat per dones.
"Desafortunadament, hi ha un mercat molt gran que està més orientat a generar imatges de dones nues. No significa que sigui més fàcil generar imatges de dones que d'homes, però bàsicament cap aquí s'orienten aquests serveis o cap aquí es busca cridar l'atenció. A més, els grans consumidors de pornografia són homes i, per tant, aquests són el públic al qual estan apuntant", detalla Curto. De fet, segons l'informe esmentat, el 48% dels homes enquestats afirmaven haver vist pornografia deepfake almenys una vegada (en base a una enquesta a 1.522 participants masculins dels Estats Units que havien consumit pornografia en els últims 6 mesos). El 74% d'aquests usuaris que havien interactuat amb pornografia deepfake no se sentia culpable pel consum.
"És una manera d'estendre un terror sexual cap a les dones en un context de ciberassetjament generalitzat en què prolifera una doble moral que penalitza o sanciona socialment les dones que apareixen en vídeos sexuals amb molta més duresa que quan els protagonistes són homes", afegeix Pujol.
És un contingut fake, però l'impacte psicològic és real
"Aquesta nova forma d'exercir violència per mitjans digitals que amplien el seu abast i magnifiquen les conseqüències en les víctimes que les pateixen", explica Pina. La ciberviolència contra les dones colpeja directament la seva salut mental. La pèrdua de qualitat de vida de les dones, l'impacte en la seva situació laboral en no poder participar en igualtat de condicions en el món digital o l'atenció mèdica que requereixen són conseqüències directes d'aquest assetjament. De fet, el Parlament Europeu ha estimat el valor econòmic per al conjunt de la UE d'aquestes conseqüències en una xifra que està entre els 49.000 i els 89.300 milions d'euros. Altres recerques afirmen que s'han trobat "altes taxes" de problemes de salut mental —com ara ansietat, depressió, autolesions i suïcidi— com a resultat d'aquest abús digital, independentment de si és un deepfake fals o real.
"Encara que les imatges no siguin reals, l'impacte i la repercussió que tenen cap a les víctimes són molt elevats, perquè la sexualitat femenina s'ha construït sobre la culpa i la vergonya. Mentre que, per als homes, fer gala de les seves conquestes sexuals ha estat sempre un símbol de masculinitat (el mateix terme de conquesta ja implica un assoliment), les dones objecte d'aquestes conquestes s'han vist exposades a la vergonya pública. El patriarcat és un sistema que penalitza la llibertat sexual de les dones, quan queda exposada, encara que sigui amb imatges falses, la sensació de desprotecció, violència i pèrdua de control és real", explica Pujol. En aquesta línia, Rocío Pina afegeix: "Podem equiparar, per tant, les conseqüències que té a les mateixes que podria arribar a tenir qui pateix qualsevol altre tipus de ciberdelinqüència sexual".
"Cal destacar que en un context viral com l'actual, en què les imatges circulen molt ràpid, la capacitat de resposta és ínfima respecte al mal causat", puntualitza Pujol. La dificultat per controlar aquestes tecnologies de generació d'imatge es complica per la facilitat d'accés que hi ha (programari lliure, models d'algorismes que es poden descarregar i reutilitzar) i la dificultat de fer una traçabilitat d'aquesta imatge. "Estem vivint una situació de proliferació massiva d'aquestes noves aplicacions, ja que hi ha hagut grans avanços en aquests sistemes generadors de text i d'imatge en l'últim any", adverteix Curto.
Pornografia infantil a través de la IA
Aquest nou mètode de violència digital contra les dones és cada vegada més popular, però també ho està sent contra les nenes o joves menors. Enguany, han estat diversos els casos de creació de pornografia infantil a través de la intel·ligència artificial, com el d'Almendralejo o el dels quatre jugadors del Reial Madrid.
L'últim estudi realitzat per Internet Watch Foundation confirma l'augment d'aquests continguts de manera preocupant. Durant un mes es va monitorar l'activitat de la web i es van trobar 11.108 imatges sospitoses d'infringir algun delicte relacionat amb l'abús sexual infantil. D'aquestes, prop de 3.000 eren il·legals, segons la llei del Regne Unit sobre l'abús infantil, i una de cada cinc, 564, es classifiquen com a categoria A, que és el tipus més greu. "L'impacte d'aquesta difusió pot derivar en conseqüències emocionals i de comportament diferents. Si bé sempre dependrà de l'abast de la conducta patida, el temps o la importància subjectiva que qui pateix aquest tipus d'agressió pugui tenir, diverses investigacions ja han evidenciat efectes negatius que es poden fer visibles a partir de trastorns depressius i ansiosos, pèrdua d'autoestima, impotència, alteracions del son, de la conducta alimentària o el consum de substàncies, entre d'altres”, adverteix Rocío Pina", adverteix Rocío Pina. Segons un estudi de l'Observatori Nacional de Tecnologia i Societat (ONTSI) de l'any passat, el 42% de les nenes i joves que han patit abús online mostren estrès emocional, baixa autoestima i pèrdua d'autoconfiança.
IWF afirma que hi ha proves raonables que la IA està ajudant a "despullar" els nens de qui s'hagin pujat imatges vestides a internet, i que augmenta el potencial de revictimització de les víctimes conegudes d'abús sexual infantil. A més, adverteix que la majoria dels continguts d'abús sexual infantil de la IA trobats són prou realistes per ser tractats com a continguts d'abús sexual infantil "real". Segons els mateixos investigadors de l'estudi, és cada vegada més difícil distingir el contingut real del fals. "Els sistemes generadors d'intel·ligència artificial fa ja molt temps que existeixen, però no eren precisos, hi havia molts errors en la disposició dels elements d'una cara, de les mans... S'han realitzat molts avanços en què, bàsicament, aquests defectes s'han anat corregint de manera progressiva. Aquesta millora s'ha donat en els últims sis mesos o un any, però s'han focalitzat a millorar l'algorisme i no s'ha atès quines podrien ser les derivades dels casos d'ús d'aquesta tecnologia", explica Curto.
Soc víctima d'un deepfake pornogràfic, què puc fer?
A Espanya hi ha, des de fa alguns anys, un mecanisme per frenar urgentment la transmissió d'aquestes imatges. "Es pot acudir directament al canal prioritari de l'Agència Espanyola de Protecció de Dades. És un canal indicat per a situacions on hi hagi una sensibilitat, ja sigui per qüestions sexuals o en compartició d'imatges íntimes, o bé on es vegin agressions, en temes d'assetjament, d'assetjament escolar, fonamentalment", explica Blasi. En menys de 24 hores, a través de l'Agència de Dades, s'intentarà evitar que es comparteixi aquesta informació o que es continuï difonent per tallar així la cadena de transmissió. "Una altra via que pot activar-se en paral·lel és la via penal. La compartició o la difusió d'aquestes imatges pornogràfiques creades o no amb intel·ligència artificial comporta la comissió d'un delicte tipificat en el Codi Penal, tant si es tracta de menors com si no", confirma l'expert.
Després, s'ha de posar una denúncia al cos de policia indicat (Policia Nacional, Guàrdia Civil o Mossos d'Esquadra), que té brigades tecnològiques que s'encarreguen, precisament, d'identificar qui n'ha estat el creador i de perseguir aquest delicte en particular. "I, com a última via, la via civil, els danys i perjudicis. En cas d'haver patit danys quantificables i reals (moltes vegades aquest tipus de situació hi dona lloc), es pot iniciar una via civil on es busqui una compensació econòmica per aquesta mena de danys", conclou Blasi.
Experts UOC
Contacte de premsa
-
Redacció