«Deepfakes» pornográficos para silenciar y apartar a las mujeres del debate público

Publicado: 8 enero 2022 a las 6:00 am

Categorías: Artículos

Por: Ares Biescas 

Un popular portal de internet guarda miles de vídeos pornográficos protagonizados por mujeres famosas, como la cantante Taylor Swift o la actriz Mila Kunis. Y, pese a que los rostros que aparecen son los suyos, los cuerpos no lo son: se trata de deepfakes, creaciones digitales hechas con algoritmos que pueden sustituir la cara y la voz de una persona por la de otra.

Los softwares que permiten cambiar el rostro de una actriz porno por el de otra mujer son bastante populares. Y es que, aunque no todos los deepfakes estén relacionados con la pornografía (también se usan en la industria del cine o la de la publicidad), la compañía especializada Sensity AI estima que entre el 90 y el 95% de los que están en línea son pornografía no consensual, y que alrededor del 90% incluye a mujeres.

Aunque la gran mayoría de mujeres afectadas por estos procesos son actrices o cantantes famosas, entre las víctimas también se encuentran políticas o activistas. Algo que, para la responsable de la organización colombiana que trabaja en la promoción de los derechos humanos en el mundo digital Karisma, Catalina Moreno, tiene un objetivo claro: «silenciar, evitar que haya mujeres visibles y en debates públicos».

Silenciar a mujeres líderes

Ya el pasado mes de noviembre, la Agencia Efe recibió un deepfake en el que se mostraba a la joven activista de 19 años Greta Thunberg bailando desnuda. Se trataba de un vídeo que estaba circulando sobre todo en grupos de WhatsApp en Brasil y en el que se la ridiculizaba con un mensaje: «Está probando nuevas tácticas en contra del cambio climático».

Bastó una búsqueda en Internet para que los compañeros de Efe encontrasen el vídeo original de la actriz, cuyo rostro había sido reemplazado por el de Thunberg. En este caso, añade la experta de Karisma, el deepfake pornográfico busca «cuestionar si su activismo en medioambiente es creíble teniendo en cuenta que hay un video circulando de ella desnuda» y «dejar su discurso en un segundo plano, quitarle interés a la lucha que está adelantando».

Otro caso mediático fue el de la periodista de investigación india Rana Ayyub, quien explica en un artículo cómo, tras criticar a la India por la violación a una niña de 8 años en Cachemira, empezó a circular un deepfake pornográfico en el que aparecía su rostro y por el que sufrió ciberacoso en las redes.

Los problemas mentales y la autocensura llegaron poco después. La propia ONU se pronunció en el caso y pidió al Gobierno que la protegiese, pero los actos de los autores quedaron impunes.

Chile y Colombia, vigilantes

Los deepfakes están presentes en muchos países. El experto en ciberseguridad Juan David Cardona confirma a EFE la presencia de estos vídeos en América Latina. Además, cuenta que los Gobiernos en Chile y Colombia, países con recientes o próximos procesos electorales (el pasado diciembre y en mayo de 2022, respectivamente), están en estos momentos monitoreando las redes en busca de ataques contra políticas.

No hay que olvidar que se trata de una tecnología de creación reciente, que en los últimos años ha cogido carrerilla y que tan solo necesita una aplicación en el móvil para ponerse en marcha. Porque, si bien los deepfakes generados con programas gratuitos para teléfonos no son perfectos, bastan para desprestigiar a una mujer y su carrera.

El uso de la sexualidad femenina como arma contra las mujeres no es nada nuevo.  Un informe sobre violencia política en redes sociales en Ecuador recoge el testimonio de una política a la que anunciaron como prostituta en una página web, adjuntando su teléfono. En el anuncio usaron una foto de su campaña.

Una herramienta al alcance de cualquiera

Hasta ahora, era difícil utilizar estos deepfakes contra mujeres anónimas porque los softwares que se usaban necesitaban muchas imágenes y vídeos desde distintos ángulos. Sin embargo, ya existen aplicaciones que analizan fotografías de mujeres y con inteligencia artificial las desnudan en pocos minutos.

Sensity AI encontró hace dos años un chatbot (es decir, un chat en el que un programa informático simula el comportamiento humano) que había desnudado al menos a 100.000 mujeres. Por su parte, un estudio impulsado por el Parlamento Europeo para abordar los deepfakes  en la política comunitaria señaló que estas aplicaciones están claramente diseñadas con sesgo de género.

La investigación recoge la falta de regulación al respecto en la mayoría de países del mundo y recoge el caso de tres estados de EE.UU.: Virginia, Texas y California, los primeros en el país americano en impulsar normativas sobre deepfakes. 

Pero, ante todo, Cardona insiste en la importancia de que las grandes empresas tecnológicas tomen cartas sobre el asunto y detengan el flujo de estos videos en sus plataformas. A pesar de que tanto la web pornográfica PornHub como Twitter prohibieron los deepfakes porno, EFE Verifica comprobó que cada día se cuelgan nuevos vídeos de este tipo en ambas plataformas

Algunas empresas han desarrollado programas para identificar deepfakes, pero son de uso interno y no están al alcance del usuario. Por eso, desde EFE Verifica dan algunas claves para reconocer deepfakes, como fijarse en si las gesticulaciones o la voz sufren retrasos, en la coincidencia entre el color de la piel de la cara y el del cuerpo, o si la fuente de la que provienen las imágenes es de confianza y pública.

Fuente: https://efeminista.com/deepfakes-pornograficos-silenciar-mujeres/

Descubre más desde Cognición

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo