El uso de la inteligencia artificial (IA) para crear pornografía infantil en línea crecerá de manera exponencial y las imágenes falsas harán cada vez más difícil identificar a las verdaderas víctimas, alertó este lunes 22 de julio la agencia policial europea.
Los delincuentes ya usan herramientas de IA para llevar a cabo delitos que van desde el fraude en línea y los ciberataques hasta la creación de imágenes explícitas de menores, advirtió Europol.
En un informe de 37 páginas, la agencia señaló que ya existen denuncias de “material de abuso sexual infantil asistido y generado por la inteligencia artificial”.
“El uso de IA que permite a los agresores sexuales de menores generar o alterar material de abuso sexual infantil está destinado a proliferar aún más en un futuro próximo”, advirtió el organismo, con sede en La Haya.
Las imágenes de abuso creadas por la IA incrementan la cantidad de material ilícito en circulación y complican la identificación de las víctimas y de los autores. Más de 300 millones de niños fueron víctimas de explotación y abusos sexuales en internet en el último año, según una investigación de la Universidad británico de Edimburgo en mayo.
EL ABUSO DE LA IA PARA CREAR DEEPFAKES SOBRE PORNOGRAFÍA INFANTIL
Los delitos van desde la llamada sextorsión, en la que los depredadores exigen dinero a las víctimas para mantener las imágenes en privado, hasta el abuso de la IA para crear deepfakes, videos que no son reales, según el Childlight Global Safety Institute de la universidad.
El auge de la IA ha provocado crecientes temores en el mundo por la posibilidad de que se use con fines malintencionados. “El volumen de material sexual autogenerado constituye ahora una parte significativa y creciente del material sexual en línea de abusos a menores”, declaró Europol.
“Incluso en los casos en que el contenido es totalmente artificial y no se representa a ninguna víctima real, el material de abuso sexual infantil generado por IA sigue contribuyendo a la cosificación y sexualización de los niños”, advirtió.
En contexto, el término deepfake surgió alrededor de 2017 y proviene de una combinación de “deep learning” (aprendizaje profundo) y “fake” (falso). Deepfake se refiere a técnicas avanzadas de inteligencia artificial, específicamente redes neuronales profundas, utilizadas para crear contenido multimedia falso que parece real. Estas técnicas se utilizan para generar videos, imágenes o audios donde las personas dicen o hacen cosas que en realidad nunca hicieron.