Alertan por nueva aplicación que permite crear videos pronográficos falsos


Alertan por nueva aplicación que permite crear videos pronográficos falsos

app


El futuro ya está aquí y es increíblemente perturbador. Una nueva aplicación tecnológica permite que los usuarios reemplacen el rostro de un actor o actriz pornográfica en un video para adultos con el de prácticamente cualquier persona que deseen. Esta tecnología fue revelada en diciembre pasado, y ahora, apenas unas semanas después, la Internet está llena de videos porno en los que se ha superpuesto el rostro de celebridades en el cuerpo de actores y actrices de películas para adultos.

El origen de la tecnología podría remontarse a los “deepfakes” (falsificaciones profundas) de Redditor y utiliza un algoritmo de aprendizaje máquina que inserta los rostros de celebridades en los cuerpos de actrices pornográficas que actúan en films para adultos. La publicación Motherboard fue la primera en informar sobre los deepfakes y su pasatiempo en diciembre pasado, pero desde entonces, el concepto se ha vuelto viral. Ahora, las herramientas necesarias para crear estos videos porno “hechos en casa” con tus actrices de Hollywood y estrellas pop favoritas están al alcance de cualquiera y son muy fáciles de usar. Esto significa que incluso las personas que no tengan estudios de ciencias computacionales o con un conocimiento limitado de la tecnología pueden crear estas películas. Lo único que se necesita es descargar la FakeApp y tener uno o dos videos de alta calidad de los actores cuyos rostros se van a superponer para crear un video porno perturbadoramente realista, informó Motherboard.

Hasta el momento, la tecnología parece estar limitada a la pornografía y aún no ha sido refinada lo suficiente como para que resulte imposible detectar que el video ha sido alterado de alguna forma. Sin embargo, los expertos indican que la tecnología no se quedará así por mucho tiempo. Conforme más y más personas elaboren estas falsas películas porno, la tecnología seguirá avanzando.

“Actualmente es posible hacer videos falsos con redes neurales, pero las personas pueden detectar esto si miran de cerca, y algunas de las tecnologías relacionadas siguen siendo muy avanzadas. Esto no quiere decir que esto seguirá así durante más de un año o dos”, declaró a Motherboard Peter Eckersley, científico computacional de alto nivel de la Fundación Electronic Frontier.

No es difícil imaginar cómo las personas podrían comenzar a utilizar la tecnología para crear pornografía con las imágenes no solo de celebridades, sino de cualquier persona que deseen. Además, la tecnología podría avanzar más allá de la pornografía y un día podría ser usada para hacer que figuras famosas parezcan decir y hacer cosas que en realidad no hicieron, informó NY Magazine.

Dicho lo anterior, los usuarios de Reddit que están detrás del subgrupo de deepfakes y de la tecnología que han surgido de este obscuro rincón de la Internet parecen reconocer que lo que están haciendo no es exactamente de buen gusto. Un usuario describió el trabajo como “derogatorio, vulgar y engañoso para las mujeres con las que se realizan los deepfakes”, al tiempo que afirma que la aplicación tiene otros propósitos, más allá de la realización de pornografía hiperrealista.

“El trabajo que realizamos aquí en esta comunidad no carece de una intención maliciosa. Muy al contrario”, escribió el usuario de Reddit Gravity Horse en la página de deepfakes de Reddit. “Estamos utilizando una tecnología revolucionaria y experimental, la cual podría dar forma al futuro de los medios de comunicación y del diseño creativo”.

Publicado en cooperación con Newsweek / Published in cooperation with Newsweek

Ingresa las palabras claves y pulsa enter.