Facebook trabaja en el diseño de inteligencia artificial (IA) que, afirma, puede ser una gran negociadora, construir su propio lenguaje y aprender a mentir.
¡Dios mío! Facebook debe estar construyendo un Trump de IA! “El Arte de la Negociación. La mayor multitud de todos los tiempos. Covfefe. ¡bip-bip!”
Este experimento de IA proviene de un laboratorio llamado Facebook Artificial Intelligence Research o FAIR, Investigación de Inteligencia Artificial de Facebook. El laboratorio anunció recientemente la creación de software muy avanzado para chatear que puede negociar implacablemente con otro software o directamente con seres humanos. Investigaciones como esta suelen atraer tanta atención de los medios de comunicación como un concurso de matemáticas de secundaria, pero el proyecto FAIR apunta a muchas posibilidades intrigantes a corto plazo para la IA, al tiempo que plantea varias preocupaciones poco tranquilizadoras, como si un bot podrá simular ser un humano una vez que los bots lleguen a ser tan buenos como para que no podamos saber si son seres vivos o criaturas artificiales.
Los investigadores de IA de todo el mundo han trabajado en muchos de los aspectos más complejos de la negociación debido a su gran importancia para el futuro de la tecnología. Por ejemplo, uno de los sueños más largamente acariciados de la IA es que todos tengamos agentes bots personales a los que podamos enviar a la internet para que hagan cosas por nosotros, como hacer reservaciones de viajes o hallar un buen fontanero. Nadie quiere un agente pasivo que pague el precio normal. Todos queremos obtener una buena ganga. Esto significa que queremos un bot realmente despiadado.
Hay tantas personas que trabajan en construir bots negociadores con IA que incluso tienen sus propios Juegos Olímpicos: la Octava Competencia Internacional de Negociación Automatizada tendrá lugar a mediados de agosto en Melbourne, Australia. Uno de sus objetivos es “fomentar el diseño de agentes de negociación práctica que puedan negociar de manera competente contra oponentes desconocidos en diversas circunstancias”. Una de las “ligas” de la competencia es un Juego de Estrategia Diplomática. Los programadores de IA prevén un futuro en el que nuestro bot luche con el de Kim Jong Un por el futuro del planeta, mientras que el secretario de Estado Rex Tillerson está fuera, recorriendo Washington en su Harley.
Como señalan los investigadores de Facebook, los bots dé la actualidad pueden realizar breves interacciones con los humanos, así como tareas sencillas como reservar una mesa en un restaurante, pero no son capaces de realizar una toma y daca matizado que produzca un resultado mutuamente acordado. Para lograrlo, los bots con IA tienen que hacer lo que hacemos nosotros: crear un modelo mental del oponente, anticipar sus reacciones, leer entre líneas, comunicarse fluidamente en el lenguaje humano e incluso lanzar algunos blofs. la IA de Facebook debe averiguar cómo hacer estas cosas por si sola: los investigadores diseñaron software de aprendizaje máquina y lo dejaron practicar con humanos y con otros bots, mejorando constantemente sus métodos.
Aquí es donde las cosas se ponen un poco extrañas. En primer lugar, la mayoría de los seres humanos que participaron en las sesiones de práctica no sé dieron cuenta de que estaban chateando con bots. Eso significa que el día en que no logremos distinguir entre bots y seres humanos ya está aquí. Y luego, los bots comenzaron a obtener mejores acuerdos con tanta frecuencia como los negociadores humanos. Para lograrlo, los bots aprendieron a mentir. “Esa conducta no fue programada por los investigadores”, escribió Facebook en un blog, “sino que fue descubierta por el bot como un método para tratar de alcanzar sus metas”. Ese rasgo podría volverse peligroso, a menos que los bots sean programados con una orientación moral.
Los bots rompieron las reglas de sus creadores de Facebook cuando comenzaron a crear su propio lenguaje para realizar sus tareas más rápidamente, en forma semejante a los jugadores de fútbol americano, quienes tienen nombres abreviados para ciertas jugadas, en lugar de dedicar todo el tiempo fuera a describir hacia dónde debe correr cada jugador. No es raro que los bots elaboren una jerga que los humanos no podamos comprender, aunque ello hace surgir la preocupación de que esas cosas pudieran chismorrear sobre nosotros a nuestras espaldas. Facebook alteró el código para hacer que los bots no utilicen más que el idioma inglés común. “Nos interesaba tener bots que pudieran hablar con las personas”, explicó uno de los investigadores.
Fuera de Facebook, otros investigadores han trabajado para ayudar a los bots a comprender las emociones humanas, que son otro factor importante en las negociaciones. Si tratas de vender una casa, desearás averiguar si el posible comprador ha establecido un apego emocional con el lugar para que puedas subir el precio. Rosalind Picard, del Instituto de Tecnología de Massachusetts (MIT) ha sido una de las líderes en este tipo de investigación, a la que denomina computación afectiva. Incluso puso en marcha una empresa, Affectiva, que entrena al software de IA en el reconocimiento de emociones al detectar las expresiones faciales y las respuestas fisiológicas de las personas. Se ha utilizado para ayudar a los publicistas a saber cómo reaccionan las personas ante sus anuncios. Tselina Data Lab, una empresa rusa, ha trabajado en la creación de software detector de emociones capaz de detectar cuando una persona está mintiendo, lo cual podría dar a los bots negociadores una ventaja aún mayor. Imagina un bot que sepa cuando estás mintiendo, pero que tú nunca sepas cuando él lo esté haciendo.
Aunque muchas de las aplicaciones para los bots negociadores, como la de asistentes personales con IA, parecen útiles, otras de ellas resultan pesadillescas. Por ejemplo, unas cuantas empresas trabajan para construir bots de cobranza. Al describir el producto de su empresa, Ohad Samet, director ejecutivo de TrueAccord, una empresa de IA de cobranza, declaró a American Banker, “Las personas endeudadas se sienten asustadas, se sienten furiosas, pero en ocasiones necesitan que se les diga, ‘Miren, esta es la deuda y esta es la situación, necesitamos resolverla’. En ocasiones, ser demasiado empáticos resulta contraproducente para los clientes”. Suena como si sus bots fueran a “negociar” diciendo, “Páguenos su deuda, más 25 por ciento de interés compuesto diario, o lo emparedaremos en la columna de concreto de un puente”.
Si juntamos todos esos atributos de los bots negociadores, tendremos un posible monstruo: un bot que pueda lograr acuerdos sin sentir empatía por las personas, diciendo cualquier cosa que sea necesaria para obtener lo que quiere, que piratee el idioma, de manera que nadie esté seguro de lo que está comunicando, y que no pueda distinguirse de un ser humano. Si no tenemos cuidado, un bot como ése podría dominar el mundo.
—
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek