Las deepfakes se han convertido en una herramienta para ejercer control y dominación sobre las mujeres. Para ello, es necesario explicar, aunque sea brevemente, en qué consisten, cuál es la regulación vigente tanto en el ámbito comunitario como nacional y, finalmente, las diferencias entre los supuestos en los que el sujeto pasivo de los contenidos es una mujer con relevancia política, social o una celebridad y aquellos en los que se trata de una mujer anónima.
Los múltiples progresos tecnológicos han convertido a la inteligencia artificial en una de las herramientas más novedosas y relevantes por su capacidad de incidir en diversas áreas como la medicina, la ingeniería, la industria cinematográfica e incluso en las ciencias sociales y jurídicas. Entre los avances más significativos se encuentra la creación de deepfakes mediante sistemas de IA generativa.
El término deepfake proviene de los conceptos en inglés “deep” que equivale a profundo y hace referencia al sistema de IA deep learning y “fake” que significa falso; en castellano podría traducirse como “ultrafalsificaciones” o “ultrasuplantaciones”. No obstante, este concepto surgió del nombre de un usuario de Reddit que, en el año 2017, difundió numerosos vídeos pornográficos falsos de celebridades como Taylor Swift, Gal Gadot o Scarlett Johansson.
Según lo expuesto por García-Ull, las ultrafalsificaciones son contenidos audiovisuales hiperrealistas, generados mediante inteligencia artificial, con el propósito de simular la voz o la apariencia física de una persona haciendo creer que han dicho o han llevado a cabo alguna acción que realmente nunca ha ocurrido. Los deepfakes se crean mediante el uso de redes neuronales convolucionales (CNN) y redes generativas antagónicas (denominadas GAN por sus siglas en inglés). Las CNN se encargan de identificar y reproducir patrones en imágenes, como son los rasgos faciales. En cambio, las GAN funcionan mediante dos redes neuronales: una generadora, destinada a la elaboración de vídeos, imágenes o audios, y otra red discriminadora, dirigida a examinar los datos generados y tratar de distinguir entre los reales y los simulados.
Por lo tanto, de acuerdo con lo señalado por Carl Öhman, durante todo este procedimiento, el rostro de una persona es analizado por un algoritmo de aprendizaje profundo (deep learning) y luego se superpone sobre el rostro de la persona a la que se pretende suplantar. Esto es posible debido a que el algoritmo ha estudiado su fisonomía, sus movimientos y sus expresiones.
La tecnología deepfake se utiliza principalmente en la industria cinematográfica, sobre todo en la creación de clones y en la modificación y elaboración de voces de personajes de películas. Además, se está implementando de manera progresiva en el ámbito médico o de la salud, así como en la publicidad y en el marketing. No obstante, como cualquier desarrollo, también conlleva riesgos, dado que las deepfakes se pueden emplear para la comisión de delitos económicos, para la difusión de desinformación, pueden interferir en procesos electorales, en la manipulación de pruebas en procedimientos judiciales o en la elaboración de contenidos pornográficos sin consentimiento.
Sin embargo, la creación de ultrafalsificaciones afecta desproporcionadamente a las mujeres. Según el estudio State of Deepfakes, elaborado por Home Security Heroes en 2023, el número total de vídeos de deepfakes ha aumentado un 550% desde el año 2019. En particular, dicho informe señala que el 98% de las ultrafalsificaciones en línea son vídeos de contenido pornográfico y en el 99% de ellos participan mujeres.
Desde un punto de vista legislativo, la Directiva 2024/1385, del Parlamento Europeo y del Consejo, de 14 de mayo de 2024, sobre la lucha contra la violencia contra las mujeres y la violencia doméstica insta a los Estados miembros a tipificar estas conductas como ilícito penal. Por ello, en el ámbito nacional, se ha aprobado el Proyecto de Ley Orgánica para la protección de las personas menores de edad en los entornos digitales, en el que se pretende introducir el artículo 173 bis CP a efectos de proteger a las personas víctimas, sobre todo niños, niñas y mujeres, frente a la creación y difusión de ultrafalsificaciones.
A su vez, existen dos perspectivas en función del sujeto que participa en esos contenidos falsos. Generalmente, cuando el sujeto pasivo es una celebridad o una mujer con relevancia política y/o social, las deepfakes suelen encontrarse estrechamente relacionadas con la manosfera o machosfera (manosphere en inglés), es decir, comunidades digitales de hombres, en las que se crean, difunden y comparten contenidos misóginos en redes sociales o en aplicaciones para móviles. En dichos espacios virtuales los varones se victimizan al considerar que el feminismo y sus políticas los criminalizan.
En ese sentido, las deepfakes han de entenderse como una manifestación del gendertrolling o troleo de género, término acuñado por Karla Mantilla en su artículo “Gendertrolling: Misogyny Adapts to New Media” y desarrollado posteriormente en su libro Gendertrolling: How Misogyny Went Viral. Concretamente, mediante dicho concepto, diversos usuarios (denominados trolls) coordinadamente comparten en Internet contenidos misóginos, ya sean noticias falsas, información personal de un individuo (doxing) o incluso deepfakes.
Por ejemplo, eso ocurrió con la periodista y columnista de The Washington Post, Rana Ayyub, en la India. En 2018, Ayyub participó en varios programas de televisión para hablar y denunciar la violación de una niña en Cachemira. Posterior a dicha intervención, Ayyub fue víctima de una campaña de desinformación masiva a través de redes sociales. Sin embargo, lo más significativo es que fue objeto de un caso de deepfake pornográfico que se viralizó y se difundió entre miles de personas. Finalmente, Rana Ayyub tuvo que ser hospitalizada por una crisis de ansiedad e incluso se llegó a borrar su cuenta personal de Facebook.
Al igual que Rana Ayyub, existen otras mujeres, víctimas de deepfakes, como la activista británica Kate Isaacs que tras llevar a cabo unas investigaciones sobre actividades pornográficas y abogar por su regulación y control, fue víctima de una ultrafalsificación muy viral. También, la política de Irlanda del Norte, Cara Hunter, semanas previas a su elección como miembro de la asamblea legislativa por el partido socialdemócrata, fue objeto de un vídeo deepfake hiperrealista en el que participaba en un acto sexual simulado.
De esta forma, se corrobora cómo los usuarios que generalmente componen la manosfera intentan humillar, silenciar y sexualizar a mujeres relevantes que defienden ideas feministas o que, simplemente, participan en la esfera pública de la sociedad al haber sido elegidas para ocupar un cargo político. Esto lo llevan a cabo, principalmente, porque ven en peligro su hegemonía masculina y emplean estas herramientas digitales para intimidar a las mujeres y menospreciarlas por el mero hecho de serlo.
Por otro lado, si el sujeto pasivo es una mujer anónima, según Chidera Okolie, estas manipulaciones se encuentran relacionadas con el término “pornografía de la venganza” o “pornovenganza”. En tal caso, se utiliza la herramienta tecnológica como forma de chantaje emocional, ya sea para la consecución de favores sexuales, monetarios o para cualquier tipo de manipulación.
Por ejemplo, imaginemos que una mujer decide dejar a su novio y él la chantajea con que, si no vuelven a ser pareja, difundirá un vídeo deepfake en el que aparece ella manteniendo relaciones sexuales con otro varón. Esta situación podría darse fácilmente, ya que no es necesario ostentar conocimientos técnicos ni informáticos para poder elaborar ultrafalsificaciones, dado que existen aplicaciones de código abierto que crean contenidos hiperrealistas de manera sencilla, entre las más significativas se encuentran FaceSwapper, DeepSwap o DeepFaceLab, entre otras. Según el informe State of deepfakes elaborado por Home Security Heroes, se demostró que, en tan solo 25 minutos y sin ningún coste, es posible crear un vídeo deepfake pornográfico de una duración aproximada de 60 segundos sobre cualquier persona; simplemente se necesita una foto de su rostro.
Todas estas actuaciones evidencian que la desigualdad estructural que existe en la sociedad analógica se extrapola a la sociedad virtual, dado que, en este caso, mediante el uso de las deepfakes, se cosifica a la mujer al tratar su cuerpo como un mero objeto.
En definitiva, las ultrafalsificaciones se han convertido mayoritariamente en una nueva forma de ejercer control y dominación sobre las mujeres, reduciéndolas a simples figuras sexualizadas y consumibles. De este modo, se perpetúa una nueva manifestación de la violencia de género en el ámbito digital.
Cita recomendada: María Matas Prósper, «IA, ‘deepfakes’ y violencia de género», IberICONnect, 23 de mayo de 2025. Disponible en: https://www.ibericonnect.blog/2025/05/ia-deepfakes-y-violencia-de-genero