PlayGround utiliza cookies para que tengas la mejor experiencia de navegación. Si sigues navegando entendemos que aceptas nuestra política de cookies.

C
left
left
Artículo Deepfake, la distopía porno de la que solo nos puede salvar la inteligencia artificial Now

Now

Deepfake, la distopía porno de la que solo nos puede salvar la inteligencia artificial

H

 

Pese a la ilegalidad de esta práctica, usar caras de otras personas en vídeos porno es cada vez más fácil, y más difícil de controlar

Rafa Martí

04 Marzo 2018 06:00

A principios de año, un usuario de Reddit de nombre Deepfake colgó un vídeo de la actriz israelí Gal Gadot (Wonderwoman) haciendo una felación a su supuesto hermano. En realidad no era Gal Gadot, sino su rostro insertado en el cuerpo de una actriz porno, en un vídeo pregrabado. La cara de Gadot interactuaba usando las expresiones faciales registradas de la actriz en las miles de horas de metraje de su carrera y accesibles al público.

Deepfake, de quien se desconoce la identidad, acababa de crear un nuevo género porno fruto de las fantasías sexuales más codiciadas con ayuda de inteligencia artificial. Abría entonces una puerta a un nuevo horizonte que solo podría ser terrorífico: si esto se puede hacer con Gal Gadot y otras celebrities, ¿por qué no con una ex o una compañera de trabajo inaccesible? O, ¿por qué no un político en una escena comprometida y que eso sirva para extorsionarle?, como sugiere la directora de porno ético Erika Lust. Y yendo más allá de lo puramente digital: ¿por qué no réplicas de personas reales en muñecas sexuales?

Las implicaciones éticas y legales de esta práctica están claras: aunque no se trate de usar a personas reales, su mera representación para fines que ellas no han autorizado es un delito en todo el mundo. El mismo Reddit, y luego Twitter y Pornhub prohibieron la subida de este tipo de vídeos, que acumularon millones de visitas en unos pocos días.

Rubén Vázquez, abogado experto en el mundo tecnológico, explica: “Supone un delito de violación de la imagen, agravado por usar la imagen de una persona sin su consentimiento y para un fin de uso masivo como es la pornografía”. Incluso si el deepfake quedase para el uso personal y no público, constituiría un delito: “Volvemos a lo mismo, la imagen de alguien no puede usarse contra su voluntad. Otra cosa es que se pueda detectar ese uso”, añade. En efecto, los delitos están delimitados, pero el alcance de esta práctica se escapa totalmente a las previsiones de la ley.

Fotograma del vídeo en el que aparece Gal Gadot.

En el caso de celebridades, el asunto aún va más allá: los delitos serían más graves porque son personas que viven de su imagen y esta se está usando para fines que dañan su fama, según explica Vázquez. “Incluso podría añadirse un cargo contra la propiedad intelectual, al usar metraje de otras obras para crear otras nuevas”. Esto, por otra parte, también comportaría que hubiese países donde el deepfake pudiese abrirse camino, como por ejemplo la India, donde la laxitud de las leyes de protección de la propiedad intelectual es grande.

Al final, al deepfake se aplican las mismas leyes existentes para producciones audiovisuales falsas o para obras que usan la imagen de terceros sin su consentimiento. “El deepfake se lleva haciendo desde que existe photoshop”, apunta el abogado.

Asimismo, las réplicas de personas reales o de órganos de esas personas en muñecas o juguetes sexuales es una práctica que la ley prohíbe igualmente. Actores porno como Rocco Sifredi, por ejemplo, han hecho contratos para que se vendan réplicas de sus genitales. “Aquí entra la complejidad de demostrar ante un tribunal que un objeto o un muñeco es una réplica de una persona sin autorización. Lo que comporta más gravedad es la cara, porque es lo que identifica a las personas”, apunta Vázquez.

El problema no son los vacíos legales, sino el limitado alcance de las leyes y de los sistemas judiciales para prevenir estas prácticas y, una vez detectadas, perseguirlas eficazmente, como se hace, por ejemplo, con los delitos de pornografía infantil. A esto se une la dificultad del propio internet para eliminar los contenidos deepfake. Según cuenta Wired, a pesar de decisiones de sitios como Pornhub, muchos vídeos siguen escapando el control manual porque son indetectables e imposibles de reconocer como falsos.

Algunas herramientas de inteligencia artificial como las empleadas por una compañía que aloja GIFs, Gfycat, están ayudando a prevenir el fenómeno, pero la facilidad con que se pueden producir estos vídeos sin que apenas se note que son falsos supone un nuevo reto. Las piezas de este género usan una simple tecnología de reconocimiento facial, parecida a la que usan apps como Snapchat para cambiar la cara de dos personas que aparecen en la misma pantalla, con lo que su producción podría ser casi ilimitada. Esto, junto a las facilidades para subir contenido en diferentes dominios, podría derivar en una tendencia fuera de control, como de hecho ya lo es la pornografía. Por ejemplo, solo en YouTube, se suben 300 minutos de vídeo cada minuto.

Como también recuerda Erika Lust, las interacciones con teléfonos de última generación como el iPhone X quedan registradas. ¿Qué pasaría si hubiese un fallo en la seguridad del sistema que diese dar acceso a millones de horas de vídeo sobre la cara de personas reales? Estas hipótesis podrían dar lugar a bases de datos inmensas para un negocio clandestino de deepfake. O legal, si se diera el caso de que los usuarios consienten.

En un momento en que el porno ya está dirigido por algoritmos que refinan las búsquedas sin tomar en cuenta la ética, solo algoritmos éticos pueden salvar a internet de una ola imparable que puede hacer que terminemos en vídeos porno que se vean en los teléfonos de quienes nunca hubiésemos querido.

share