En los últimos años, la rápida incursión de la inteligencia artificial (IA) ha tenido un impacto significativo en distintos ámbitos. Por ejemplo, en el sector salud, con IA pueden analizarse grandes cantidades de datos médicos para ayudar a diagnosticar enfermedades de manera más precisa y rápida, así como brindar asistencia médica o soporte por medio de chatbots. En el caso del transporte, gracias a la IA se pueden analizar patrones de tránsito, lo que optimiza las rutas para reducir la congestión y mejorar la movilidad. O en términos de cultura y entretenimiento, es posible generar música, textos e imágenes que van más allá de la creatividad humana.
Sin embargo, así como hay numerosos beneficios, también se han identificado riesgos o situaciones que han puesto en alerta y deben gestionarse cuidadosamente. Estos abarcan desde cuestiones éticas y de privacidad, hasta problemas de seguridad y laborales. Como el caso de los deepfakes, que consisten en la creación o alteración digital de imágenes, audios o videos, por medio de inteligencia artificial, con el fin de aparentar algo diferente a la realidad.
DEEPFAKES REALISTAS Y DIFÍCILES DE IDENTIFICAR
En un principio no eran muy convincentes, pero con los avances de la tecnología cada vez se han vuelto más realistas y difíciles de diferenciar de los contenidos originales. Un caso muy recordado e incluso polémico fue cuando el actor y director Jordan Peele utilizó la imagen de Barack Obama para hacer declaraciones falsas, transfiriendo los movimientos de su propio rostro al del expresidente, lo que le daba más naturalidad y realismo al video generado.
Otro ejemplo son los videos creados con IA por una compañía israelí y algunos artistas para una instalación de arte llamada Spectre. Se utilizó la imagen de personas reconocidas, como Mark Zuckerberg, Donald Trump y Kim Kardashian, y la voz de actores para dar declaraciones falsas.
Como se evidencia en lo anterior, los casos más comunes de deepfakes han consistido en colocar la cara de una persona para simular que realiza determinada acción. No obstante, estos han llegado a impactar negativamente en distintos ámbitos con intención de generar campañas de desinformación, difamar o afectar la reputación de una persona o una compañía, e incluso cometer delitos como fraude, estafa o extorsión.
Tras identificar esta problemática y teniendo en cuenta que uno de los principales retos en la actualidad consiste en que no todos los países cuentan aún con regulaciones definidas para temas relacionados con la inteligencia artificial, como se menciona en el estudio “La inteligencia artificial en América Latina” publicado por NTT DATA, en colaboración con el MIT Technology Review, se han ido implementando otras medidas.
FOMENTEMOS EL USO RESPONSABLE DE LA TECNOLOGÍA
Algunas universidades y empresas tecnológicas están desarrollando algoritmos avanzados para detectar deepfakes; se están mejorando las técnicas de análisis digital para identificar manipulaciones en archivos multimedia. Constantemente se están fortaleciendo y actualizando las políticas de redes sociales y plataformas, como en el caso de YouTube, que recientemente implementó nuevas medidas para evitar la difusión de noticias falsas y contenidos de este tipo con el fin de evitar la desinformación. También la plataforma Instagram etiqueta los videos que detecta que han sido creados con inteligencia artificial.
Considerando esto, la inteligencia artificial tiene una amplia gama de aplicaciones. Si bien en algunos casos puede ofrecer oportunidades innovadoras, también se plantean serios desafíos éticos y de seguridad que requieren seguir abordándose.
Asimismo, es crucial continuar avanzando en el desarrollo de herramientas para la detección y mitigación de los efectos negativos de los deepfakes; fomentar el uso responsable de la tecnología y reconocer la relevancia que tiene el trabajo en conjunto entre el sector público y el privado con el fin de lograr medidas que regulen el uso de la inteligencia artificial. N
—∞—
Juan Carlos Montero Vilchis es jefe de Tecnología Digital en NTT Data México. Los puntos de vista expresados en este artículo son responsabilidad del autor.