Falsos desnudos

“Deepfakes” sexuales: el caso de las menores de España consolida una nueva forma de violencia machista

Marta Borraz / Alba Pastor

0

Cuando Kanye West estrenó el videoclip de Famous en 2016, nadie se sorprendió ante las imágenes de cuerpos desnudos que se sucedían en pantalla. Era la enésima ocasión del rapero transitando los caminos de la provocación, algo a lo que ya tiene acostumbrados tanto a fans como a detractores. El vídeo lo protagonizaban una réplica de cera del propio artista y 11 maniquíes desnudos compartiendo cama. Las figuras representaban a personajes famosos del panorama estadounidense, entre quienes se encontraban Kim Kardashian, Donald Trump, Anna Wintour o Rihanna.

La cantante Taylor Swift, quien también aparece en escena, denunció públicamente su inclusión en el trabajo de West. Según la artista, no había dado permiso para que el rapero la mencionara en un verso de la canción cargado de misoginia (“Siento que Taylor y yo podríamos acostarnos. ¿Por qué? Yo hice famosa a esa zorra”), ni para que usara su imagen y distribuyera su falso desnudo en un momento en el que todavía la tecnología deepfake no se había popularizado.

Aunque esta técnica de inteligencia artificial (IA) que permite crear vídeos, imágenes o audios hiperrealistas es usada en diversos ámbitos y con distintos fines, se han acumulado los casos en los que el objetivo es difundir desnudos ficticios de mujeres creados sin su consentimiento. Y es que buena parte de este tipo de creaciones digitales son contenido sexual o pornográfico.

Es lo que ha ocurrido en Almendralejo (Badajoz), donde decenas de chicas jóvenes han sido víctimas de estos 'desnudos', que han circulado rápidamente entre los móviles de sus compañeros y que ya están siendo investigados. Varias famosas también han denunciado recientemente hechos similares: la última, la influencer Laura Escanes el pasado agosto, que dijo sentirse “utilizada y expuesta”. Pocos meses antes Rosalía denunciaba una foto suya manipulada por el rapero JC Reyes en la que aparece sin ropa: “Es un tipo de violencia”, estalló la cantante.

No es una broma de mal gusto ni un hecho sin trascendencia para quien lo sufre, sino una nueva forma de violencia machista emergente y cada vez más común. Así lo califica el Instituto Europeo de Igualdad de Género, que engloba las deepfakes en la categoría de ciberviolencias. La lista de ejemplos es larga. Este año el streamer Brandon Ewing, conocido como Atrioc en internet, admitió haber comprado en una página web imágenes sexuales generadas por IA de sus compañeras streamers sin que estas lo supieran.

Se trata de la exposición de la sexualidad de las mujeres sin su consentimiento para ridiculizarlas, señalarlas y atacar su libertad sexual

“El digital es un ámbito más en el que se ejercen las violencias que tradicionalmente hemos vivido en lo analógico y por la especificidad de la tecnología se crean nuevas”, explica Eva Cruells, coordinadora de FemBloc, un proyecto de prevención y atención a las violencias machistas digitales. Al sexpreading, la difusión de material de contenido sexual sin consentimiento, se suma ahora una vuelta de tuerca. Ya no hace falta que haya una imagen de la víctima desnuda, sino que una fotografía de ella y existente puede manipularse para quitarle la ropa y simular que es verdad.

Que este tipo de actos hunden sus raíces en la violencia machista es algo que tienen claro las expertas: “Se trata de la exposición de la sexualidad de las mujeres sin su consentimiento para ridiculizarlas, señalarlas y atacar su libertad sexual. Y mandan un mensaje no solo a las víctimas en particular, sino a todas las mujeres”, sostiene Cruells.

Efectos que son muy reales

Laia Serra, abogada penalista experta en igualdad de género, explica cómo los objetivos de este tipo de violencia pueden ser muy variados, pero la intención sí será “un denominador común”: “Divulgar la representación de los cuerpos y contenidos sexuales todavía consigue tener un devastador poder de represalia, descrédito, desprestigio y estigma de las mujeres. A esta dinámica patriarcal se le añade el hecho de que en la era de la posverdad, la distinción entre lo cierto y lo falso cada vez tiene menos valor social”.

Las fotografías creadas mediante deepfake no son reales, pero sí lo son las consecuencias. Y es que este tipo de violencias tienen el mismo impacto para la salud mental y la integridad de las víctimas que la difusión de un nude real, advierten las expertas. La psicóloga especializada en violencias machistas María Bilbao afirma que “sigue siendo una vulneración de su intimidad y su vida privada” y, aunque el cuerpo que aparece en la imagen no sea el suyo, puede ser vivido “como una intromisión muy violenta” que conduce a sentimientos de “vergüenza, miedo o desconfianza”.

“Puede ser tan terrible como cualquier otra forma de violencia sexual”, apunta Noelia Igareda, profesora de Filosofía del Derecho de la Universidad Autónoma de Barcelona. “Habrá vergüenza, sensación de humillación, impotencia y estigma”. Incluso en algunos casos puede acabar convirtiéndose en una forma de chantaje, como ocurrió en uno de los casos de Almendralejo, entre los que se encuentra una niña de 12 años que se enteró de que su fotografía había sido manipulada para 'desnudarla' porque un chico se la mandó por Instagram amenazándola para pedirle dinero.

Sin delito específico en el Código Penal

Pese a la gravedad de los hechos, la realidad es que aún nos encontramos en la casilla de salida en cuanto a la concepción de las violencias digitales como violencias machistas, algo que no se ha estipulado así a nivel estatal hasta la aprobación de la reciente Ley de Garantía Integral de la Libertad Sexual, la conocida como ley del solo sí es sí. Esta, afirma Serra, “ha puesto en el centro la protección de la autonomía y la libertad sexual de las mujeres”, un eje desde el que considerar “el hecho de utilizar la imagen real o ficticia de una mujer” en este contexto “y provocar en público un estigma social” como “una forma de violencia”.

Sin embargo, coinciden las expertas, hay aún una escasa percepción social del daño infligido y de su impacto. “En general hay una falta de conciencia y de formación en el respeto a los derechos de las personas en lo virtual. El espacio online tiene una importancia en nuestras vidas de la que muchas veces no somos conscientes, pero tiene unas características que nos hacen perder la visión, entre ellas el anonimato o la sensación de impunidad”, explica Igareda, que añade a todo ello la inteligencia artificial como “un territorio sin ley”.

Y es que aún en lo que se refiere a su regulación, las leyes van por detrás de la realidad. La creación o difusión de deepfakes sexuales no están todavía incorporadas como delito específico en el Código Penal. Sobre cómo perseguirlas actualmente planean dudas entre los juristas porque no hay un lugar concreto en el que encajar estas conductas. La ley del solo sí es sí perdió la oportunidad de reformar la norma penal en este sentido y PP y PSOE rechazaron posteriormente su incorporación vía enmiendas presentadas por Junts.

La interpretación jurídica hasta ahora es la de encajar esta conducta en otros delitos. Podrían ser coacciones o el delito paraguas, el de la integridad moral, hacia el que encaminamos todas las violencias digitales que no tienen un delito específico

Según explica Serra, hasta que eso ocurra la solución es intentar recurrir a delitos genéricos que sí contempla el Código Penal. “El 197.7 recoge la divulgación de imágenes o vídeos íntimos, pero se da por hecho que son reales. Hay quien afirma que se puede aplicar, pero la interpretación jurídica que se ha dado a estas situaciones hasta ahora es la de encajar esta conducta en otros delitos. Según el contexto podrían ser coacciones o el delito paraguas, el de la integridad moral del 173. Todas las violencias digitales que no tienen un objeto específico, las encaminamos hacia este delito”, señala la penalista.

En el caso de que las víctimas sean menores, como en Almendralejo, el recorrido toma otro cariz. “El delito 189 del Código Penal sobre pornografía infantil sí versa sobre imágenes reales o representaciones. En este caso, la tutela de la esfera sexual de los menores sí contempla un abanico más amplio”, añade Serra, que apunta hacia las reformas legislativas que están por venir a nivel europeo.

Por un lado, está la propuesta de Directiva del Parlamento Europeo y del Consejo sobre la lucha contra la violencia contra las mujeres y la violencia doméstica, que contempla la obligación de que los Estados miembro castiguen como delito una serie de infracciones. Dentro de las infracciones que va a obligar a penalizar no está contemplada solo la divulgación de imágenes reales, sino las deepfakes sexuales, explica Serra. Pero “se trataría de una medida aún insuficiente porque se exige una divulgación masiva del contenido”.

Por otro lado, sobre la mesa está la Ley europea sobre Inteligencia Artificial, una “norma compleja” que está en trámite de aprobación pero cuyo objetivo principal es ayudar a los usuarios a filtrar lo que es verídico de lo que no. No se trata de una regulación dirigida a la protección de las víctimas, al menos no de momento, aunque “se está trabajando” para que exista una cobertura “y más pronto que tarde las deepfakes sexuales se van a incorporar como mínimo en el Código Penal”, concluye Serra.