Utilizar la inteligencia artificial para reemplazar los rostros de actrices porno con las de otras personas, una tecnología conocida como deepfake podría afectar a menores y ser una herramienta de pornovenganza.
Muchos sitios web, entre ellos, Pornhub, Gfycat e Imgur han trabajado para bloquear los deepfakes, es decir, la pornografía en la que se utiliza la tecnología de cambio de rostros para colocar la cara de una persona famosa en un cuerpo diferente, pero a algunas personas que hacen pornografía deepfake les preocupa crear accidentalmente pornografía infantil.
Los creadores de pornografía falsa utilizan inteligencia artificial para reemplazar los rostros de actrices porno con los de estrellas bien conocidas, utilizando conjuntos de imágenes de los rostros de estas últimas. Los conjuntos de rostros se intercambian en los foros de internet, y las personas que participan en ellos han manifestado su preocupación con respecto a archivos que contienen imágenes de actrices famosas cuando eran niñas, se informó este martes en Motherboard, así como de que la tecnología de cambio de rostro pueda utilizarse para colocar rostros infantiles en videos pornográficos.
Algunos de estos conjuntos de rostros incluyen imágenes de una joven Emma Watson en los años en que estelarizó las películas de Harry Potter, así como imágenes de Elle Fanning que pudieron haber sido tomadas antes de que la actriz cumpliera 18 años. “Borré todas las publicaciones sobre Elle Fanning debido a que es imposible demostrar que ella tenía 18 años en el antiguo conjunto de rostros… Más vale prevenir que lamentar”, escribió un usuario identificado como Anton en un foro sobre deepfakes, de acuerdo con el sitio.
LEE TAMBIÉN: Alertan por nueva aplicación que permite crear videos pronográficos falsos
De acuerdo con la Ley PROTECT de Estados Unidos, está prohibido que cualquier persona realice “una representación visual que sea una imagen digital, imagen computarizada, o imagen generada por computadora de un menor de edad participando en una conducta especificada como sexualmente explícita, o que sea indistinguible de ella”.
Pornhub y Reddit prohibieron la pornografía deepfake después de que varios usuarios publicaron fragmentos de videos falsos que contenían los rostros de Taylor Swift y Maghan Markle.
Pornhub declaró a principios de este mes que eliminaría todos los videos deepfake que encontrara en el sitio. “Con respecto a los deepfakes, los usuarios han comenzado a etiquetar contenidos como ese, y nosotros los estamos retirando tan pronto como localizamos esas etiquetas”, afirmó Corey Price, vicepresidente de Pornhub, en una declaración.
La pornografía deepfake también ha hecho surgir preocupaciones sobre el aumento de la pornografía vengativa. Reddit también prohibió un hilo de conversación sobre pornografía deepfake en febrero de 2018 y publicó una declaración en la que señala que “las comunidades centradas en este contenido y los usuarios que lo publiquen serán expulsados del sitio”.
—
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek