“Desvesteix a qualsevol amb el nostre servei gratuït“, diu el missatge de benvinguda d’una pàgina web per crear deepfakes pornogràfics. No s’ha de ser cap expert per trobar aquestes webs ni tampoc per fer-les servir, només cal pujar-hi una foto de cos sencer i esperar menys d’un minut per obtenir el resultat esperat. Per fer un vídeo porno deepfake de 60 segons, calen menys de 25 minuts i costa 0€ (si la web és gratuïta, encara que també les hi ha de pagament) utilitzant només una imatge del rostre d’algú, segons dades de l’informe State of deepfakes 2023 de Home Security Heroes.
No és res nou, els primers deepfakes van començar amb dones famoses: els rostres de Jennifer Lawrence o Scarlett Johansson eren retallats i incrustats en escenes pornogràfiques que després eren penjades en pàgines per a adults, tant en vídeo com en imatges. “La creació d’imatges sexuals creades per intel·ligència artificial, o deepfakes sexuals, no es contempla, encara, com un delicte específic en el Codi Penal. Ara bé, atesa la idea de la violència de gènere com tota aquella violència que en la seva extensió s’exerceix contra les dones, la creació d’aquesta mena d’imatges no deixa de ser una eina i una forma de violència més contra aquestes“, explica Rocío Pina, professora dels Estudis de Psicologia i Ciències de l’Educació i del grau de Criminologia de la Universitat Oberta de Catalunya. “Es desinforma, es manipula i es destrueix la reputació de la víctima de la mateixa manera que ho fa el revenge porn (porno de venjança) o la sextorsió”, afegeix.
D’acord amb l’estudi abans esmentat, entre el 2022 i el 2023, la quantitat de pornografia deepfake creada va augmentar un 464%, passant de 3.725 vídeos el 2022 a 21.019 el 2023, un patró alarmant segons els mateixos investigadors de l’informe. “Aquestes aplicacions es fonamenten en sistemes d’intel·ligència artificial generatius, en aquest cas imatges: creen un algoritme que s’ha entrenat amb moltíssimes imatges i que s’ha combinat amb una aplicació web o una aplicació mòbil, en la qual l’aportació d’entrada és una imatge i la de sortida una altra imatge, però s’hi aplica una transformació, que en aquest cas és un nu“, explica Josep Curto, professor dels Estudis d’Informàtica i Telecomunicacions de la UOC.
Aquest fenomen vulnera 2 grans drets: la protecció de dades o privadesa i també la intimitat, honor i pròpia imatge. “Es vulnera la normativa de protecció de dades perquè hi ha una difusió d’informació que, encara que sigui essencialment falsa, s’utilitzen dades personals reals, com el rostre d’una persona o de vegades fins i tot la veu, i això comporta sovint un tractament de dades personals sense consentiment de l’afectat. A més, la vulneració de la normativa també s’ocasiona a l’hora de compartir o difondre aquestes creacions amb IA a terceres persones o a través de xarxes socialsen obert, també sense el consentiment de l’afectat. Per tant, la norma obliga a demanar el permís de l’interessat no només per a la creació d’aquestes imatges, sinó també per a la seva difusió posterior a un alt nombre de persones o en xarxes socials”, detalla Eduard Blasi, professor col·laborador dels Estudis de Dret i Ciència Política de la UOC i expert en dret a la privadesa.
A més, cal destacar la naturalesa d’aquesta informació i l’impacte sobre els subjectes afectats. En particular, afegeix l’expert, “aquestes imatges comporten sovint un tractament de dades sensibles, ja que la informació està relacionada amb la vida íntima o sexual d’una persona i, en funció de la imatge generada mitjançant aquesta tecnologia, es pot ocasionar també una lesió al dret a l’honor, intimitat i/o pròpia imatge de la persona”, detalla Blasi.
Soc víctima d’un deepfake pornogràfic, què puc fer?
A Espanya hi ha, des de fa alguns anys, un mecanisme per frenar urgentment la transmissió d’aquestes imatges. “Es pot acudir directament al canal prioritari de l’Agència Espanyola de Protecció de Dades. És un canal indicat per a situacions on hi hagi una sensibilitat, ja sigui per qüestions sexuals o en compartició d’imatges íntimes, o bé on es vegin agressions, en temes d’assetjament, d’assetjament escolar, fonamentalment”, explica Blasi. En menys de 24 hores, a través de l’Agència de Dades, s’intentarà evitar que es comparteixi aquesta informació o que es continuï difonent per tallar així la cadena de transmissió. “Una altra via que pot activar-se en paral·lel és la via penal. La compartició o la difusió d’aquestes imatges pornogràfiques creades o no amb intel·ligència artificial comporta la comissió d’un delicte tipificat en el Codi Penal, tant si es tracta de menors com si no“, confirma l’expert.
Després, s’ha de posar una denúncia al cos de policia indicat (Policia Nacional, Guàrdia Civil o Mossos d’Esquadra), que té brigades tecnològiques que s’encarreguen, precisament, d’identificar qui n’ha estat el creador i de perseguir aquest delicte en particular. “I, com a última via, la via civil, els danys i perjudicis. En cas d’haver patit danys quantificables i reals (moltes vegades aquest tipus de situació hi dona lloc), es pot iniciar una via civil on es busqui una compensació econòmica per aquesta mena de danys”, conclou Blasi.
Equip de redacció