¿NO SERÍA grandioso si tu teléfono inteligente pudiera llamarle a tu estilista y agendar una cita, o regatearle a tu restaurante favorito reservaciones para cenar? En mayo pasado, Google presentó un software, llamado Duplex, que puede hacer precisamente eso. El público de aficionados a la tecnología estaba anonadado. Pero considera cómo sería estar al otro lado de esa conversación, o sea, recibir una llamada de una computadora que suena como un humano real.
Así será la nueva oleada de inteligencia artificial: no solo espeluznante, también peligrosa. A los expertos en seguridad les preocupan específicamente los “bots”, un software en internet diseñado para realizar tareas con un grado alto de autonomía. Con software como el Duplex de Google, los malos actores podrían usar bots para hacerse pasar no solo por personas sino personas que conoces, como un amigo o un familiar.
“Piensa en esto: un atacante graba la voz de mi mujer, la ‘aprende’ usando inteligencia artificial, y ahora él puede elaborar una campaña dirigida llamándome desde el número telefónico [falso] de mi esposa”, dice Rahul Kashyap, presidente y director ejecutivo de Awake Security. “En ese momento, él puede intentar cualquier cosa, como pedirme que transfiera una cantidad específica a un banco por una razón que suene auténtica”. Lo mismo podría pasar concebiblemente con directores ejecutivos, presidentes o generales de cuatro estrellas.
Hoy día, los estafadores pasan mucho tiempo llevando a cabo sus planes, lo cual limita la cantidad de víctimas potenciales. Conforme la inteligencia artificial se hace más sofisticada, los hackers serán capaces de automatizar sus hackeos mediante hacer sus propios bots poderosos, creando una pesadilla de privacidad personal. Por ejemplo, quienes buscan robar tus contraseñas o números de cuentas bancarias podrían atacar a miles de personas en segundos con llamadas telefónicas que suenen como si provinieran de alguien a quienes conoces personalmente. “La tecnología Duplex haría posible el hacer ataques de ingeniería social a escala masiva”, dice Roman Yampolskiy, director del Laboratorio de Seguridad Cibernética en la Universidad de Louisville.
Las imitaciones de voz tal vez todavía estén a años de distancia, pero los bots con inteligencia artificial han creado un riesgo de seguridad sin ellas: se están volviendo rápidamente un lugar común como mediadores entre clientes e instituciones. ¿El aviso que recibiste de tu banco sobre una compra con tarjeta de crédito o el estado de tu cuenta de cheques? Probablemente los generó un bot.
Lo mismo ocurre con las alertas de tu compañía telefónica sobre el límite de datos de este mes, o con la compañía de mensajería sobre tu paquete que acaba de ser entregado o con la “persona” que te mensajea en el sitio web de una aerolínea. Los hackers imitan cada vez más estos mensajes, por lo que una liga que parece provenir de tu banco de hecho podría ser una treta de “phishing” diseñada para engañarte y que des tu información personal.
Rob May, director ejecutivo de Talla, la compañía detrás de BotChain [una plataforma para administrar tus interacciones con inteligencia artificial], predice que en dos o tres años, viviremos en un mundo “en el que cada vez que recibas un mensaje de texto, voz o correo electrónico, te será difícil saber si estás tratando con un humano o un bot”.
La tecnología es de “código abierto”, lo cual significa que cualquier compañía puede usarla gratis. Para mantenerte seguro, evita dar tu información personal y aprende a ser escéptico de los bots que hacen demasiadas preguntas.
La buena noticia: BotChain está trabajando en una tecnología para certificar bots buenos de los malos. La noticia no tan buena: en los próximos años, la tecnología de bots posiblemente rebase la capacidad de los expertos en seguridad y del público de seguirle el paso.
—
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek