¿Recuerdas la frase “no todo es lo que parece”? Hoy esa advertencia cobra un nuevo sentido en el mundo digital. Y es que la proliferación de deepfakes generados mediante tecnologías de intercambio facial, como Face Swap, se ha convertido en una amenaza de alto impacto para la ciberseguridad organizacional.
Su irrupción en plataformas de videollamadas ha escalado rápidamente; solo en los últimos tres años, los ataques que involucran identidades sintéticas —perfiles digitales creados a partir de datos reales y ficticios para hacerse pasar por personas legítimas— se han disparado más de 2,100 por ciento, según el informe Battle Against AI-driven Identity Fraud. Este crecimiento explosivo obedece a la accesibilidad de herramientas que permiten, con apenas un par de pasos y sin conocimientos especializados, animar rostros falsos con una precisión desconcertante.
También lee: ¿Un conocido te envía un video donde te pide dinero prestado? Podría ser una estafa generada con IA
Un caso reciente en Hong Kong puso de relieve el nivel de sofisticación que ha alcanzado esta modalidad de fraude. Un empleado de una firma multinacional fue convencido de transferir más de 25 millones de dólares tras participar en una videollamada con supuestos ejecutivos. Lo que no sabía es que todos los participantes eran simulaciones generadas a partir de fotografías extraídas de redes sociales y animadas con software de manipulación facial.
La transmisión se realizó a través de una cámara virtual, lo que eliminó cualquier indicio evidente de falsificación. Este es un episodio sin precedentes en la región por la cantidad de identidades falsas utilizadas simultáneamente, lo que expuso una falla crítica: la confianza ciega en la imagen en tiempo real.
VENTAJAS Y DESAFÍOS
La incorporación de reuniones virtuales en la rutina laboral ha traído eficiencia, pero también nuevos riesgos. En este contexto, los deepfakes se posicionan como un recurso silencioso, pero altamente eficaz, para manipular entornos corporativos. Su capacidad para imitar comportamientos humanos con fluidez visual y auditiva desafía los métodos tradicionales de verificación y expone fisuras en las medidas de seguridad digital.
Aunque la tecnología detrás de estos montajes no es reciente, su evolución ha reducido significativamente la barrera de entrada. Actualmente, una fotografía disponible públicamente y una aplicación gratuita son suficientes para generar un avatar convincente que hable, gesticule e, incluso, reaccione en tiempo real. Este tipo de fraude ya no requiere sofisticados laboratorios ni hackers expertos, sino apenas un usuario motivado con acceso a las herramientas adecuadas.
El caso de fraude ocurrido en Hong Kong reveló una falla profunda en la manera en que muchas organizaciones verifican la identidad de sus interlocutores. Actualmente, muchas empresas confían en señales visuales (como ver el rostro de alguien en una videollamada) o auditivas (como reconocer una voz) para confirmar que están hablando con la persona correcta. Sin embargo, ante la aparición de deepfakes tan realistas, estos métodos pierden eficacia. Ya no se puede asumir que una imagen en movimiento o una voz convincente garantizan autenticidad.
Aunque las pérdidas económicas de estos ataques suelen ser lo más notorio, sus efectos van mucho más allá: pueden dañar la reputación de la empresa, interrumpir sus operaciones y dejar al descubierto fallas graves en su estructura de control y toma de decisiones.
¿CÓMO COMBATIR LOS DEEPFAKES?
Paradójicamente, la misma inteligencia artificial que impulsa estas amenazas también ofrece una vía para combatirlas. Empresas de ciberseguridad están desarrollando soluciones que analizan microexpresiones, asincronías labiales o inconsistencias de movimiento para detectar manipulaciones. Incluso, estas tecnologías pueden identificar la presencia de múltiples rostros dentro del mismo cuadro.
El problema, sin embargo, va más allá de lo técnico. La percepción social sobre los deepfakes continúa siendo limitada, y la sobreconfianza se ha convertido en un riesgo adicional. El Informe de inteligencia de amenazas 2025 de iProov revela que solo 0.1 por ciento de los participantes fue capaz de identificar correctamente todos los contenidos manipulados. Peor aún: 48 por ciento no sabe cómo reportar este tipo de contenido, y cerca de 30 por ciento no toma ninguna acción al encontrar material sospechoso.
Te interesa: ¿Decir ‘gracias’ a ChatGPT cuesta millones? El lado oculto del chatbot más popular del mundo
El mismo estudio identificó dos grupos especialmente vulnerables: los mayores de 55 años, entre quienes casi un tercio jamás había oído hablar de los deepfakes, y los jóvenes de entre 18 y 34 que, pese a su familiaridad digital, demostraron un exceso de confianza en su capacidad para reconocer contenidos falsos. Esta brecha cognitiva amplifica el riesgo y dificulta la implementación de respuestas efectivas.
La clave para revertir esta tendencia no radica únicamente en la implementación de nuevas tecnologías, sino en la transformación de la cultura organizacional. Es fundamental que la seguridad se entienda como una responsabilidad compartida y no como una tarea exclusiva del área de la tecnología de la información.
La verificación multifactor, el análisis biométrico dinámico y los mecanismos que trasciendan la simple validación visual deben integrarse de forma permanente en nuestras dinámicas digitales. Pero igual de crucial es fortalecer los procesos internos, es decir, capacitar continuamente al personal en temas de ciberseguridad, restringir el acceso a información crítica y revisar los flujos de autorización para evitar decisiones unilaterales. Es hora de asumir que ningún canal digital es infalible. N
—∞—
Sergio Martínez es director de Investigación y Desarrollo en IQSEC. Los puntos de vista expresados en este artículo son responsabilidad del autor.