El avance de la inteligencia artificial (IA) ha traído beneficios como la automatización de tareas y el análisis de grandes volúmenes de datos. Sin embargo, sus efectos no siempre han sido positivos. En años recientes surgieron numerosas aplicaciones y sitios conocidos como “undress o nudistas con IA”, diseñados para eliminar digitalmente la ropa de las imágenes. Estas plataformas han generado, en conjunto, millones de dólares.
Datos oficiales señalan que en 2024 existían más de 130 sitios de este tipo. Según Indicator, una publicación especializada en el análisis del engaño digital, al revisar 85 de estos portales detectó un promedio combinado de 18.5 millones de visitas mensuales en los últimos seis meses. Las ganancias anuales podrían alcanzar los 36 millones de dólares.
El informe reveló que la mayoría de estas páginas utiliza servicios tecnológicos de empresas como Google, Amazon y Cloudflare para operar y mantenerse en línea.
“Comprobamos que estos sitios nocivos siguen obteniendo beneficios gracias al acceso a los principales proveedores de infraestructura. Al analizar el código fuente, identificamos que Amazon y Cloudflare ofrecen servicios de alojamiento o distribución de contenido a 62 de los 85 sitios examinados. Google facilita el inicio de sesión en 53 de ellos. De forma directa o mediante un intermediario llamado Luxury Fintech, algunos también usan Coinbase, PayPal, Mercuryo y Telegram para procesar pagos con tarjeta de crédito”, indica el análisis.
“EL ECOSISTEMA HA DEMOSTRADO UNA RESILIENCIA NOTABLE”
Según Wired, que cita el artículo de Indicator, los 10 sitios más visitados registraron la mayor parte de su tráfico en Estados Unidos, India, Brasil, México y Alemania. El crecimiento de estas plataformas ha impulsado el debate sobre la necesidad de establecer regulaciones que frenen la expansión de los deepfakes y protejan la privacidad.
“Desde 2019 las aplicaciones de desnudos pasaron de ser proyectos secundarios de baja calidad a convertirse en una industria clandestina profesionalizada, con millones de usuarios”, afirmó Henry Adjer, especialista en inteligencia artificial y deepfakes.
El análisis apunta que los sitios que usan IA para convertir cualquier foto en un desnudo han sido blanco de moderación, acciones legales y regulaciones. Y, si bien, algunos de ellos han sido cerrados, “el ecosistema en su conjunto se ha adaptado y ha demostrado una resiliencia notable”.
Una encuesta de Save the Children a jóvenes en España reveló que uno de cada cinco personas afirma haber sido víctima de un deepfake siendo menor de edad. Las estadísticas del Reino Unido y Estados Unidos muestran que “estas herramientas tóxicas” tienen un alcance similar en esos países. Incluso una pequeña fracción de estas cifras equivaldría a cientos de miles de adolescentes “desnudados” sin su consentimiento en todo el mundo, según Indicator.
Aunque las empresas tecnológicas y los organismos reguladores han respondido con extrema lentitud al problema de los deepfakes abusivos desde su aparición hace más de una década, Wired resume que en los últimos meses han comenzado a tomar algunas medidas: Microsoft logró identificar a los desarrolladores de deepfakes protagonizados por celebridades, y Meta inició acciones legales contra una empresa que, según la compañía, opera una aplicación de desnudos que publica anuncios de forma reiterada en su plataforma.
En tanto, la polémica ley Take It Down (Ley de Retirada de Contenidos), firmada en mayo por el presidente Donald Trump, obliga a las empresas tecnológicas a retirar con rapidez imágenes no consentidas que representen algún tipo de abuso. N