Por Anthony Cuthbertson
Un algoritmo de inteligencia artificial ha superado a los humanos en una prueba de comprensión de lectura por primera vez, lo que podría poner en riesgo la automatización de millones de trabajos de servicio al cliente.
El algoritmo de IA, desarrollado por el gigante minorista chino Alibaba, superó a los humanos en el Stanford Question Answering Dataset (SQuAD), una prueba de lectura global que consta de más de 100,000 preguntas.
Utilizando el procesamiento de lenguaje natural, el modelo de aprendizaje automático desarrollado por el Instituto de Ciencia de las Tecnologías de Datos de Alibaba venció a los rivales humanos con un puntaje de 82.44 comparado con 82.305, dijo la compañía.
Según los investigadores, el hito podría tener un impacto significativo en la introducción de la tecnología en roles típicamente realizados por humanos, ya que el algoritmo de IA es capaz de proporcionar respuestas precisas a las preguntas cuando se proporciona una gran cantidad de información de recursos como Wikipedia.
“Eso significa que las preguntas objetivas tales como ‘Qué causa la lluvia’ ahora pueden ser respondidas con gran precisión por las máquinas”, dijo en un comunicado Luo Si, científico en jefe para el procesamiento del lenguaje natural en el Instituto de Ciencia de Datos de Tecnologías.
“La tecnología subyacente se puede aplicar gradualmente a numerosas aplicaciones, como servicio al cliente, tutoriales en museos y respuestas en línea a consultas médicas de pacientes, disminuyendo la necesidad de aportes humanos de una manera sin precedentes”.
Los investigadores han usado libros para enseñar ética humana a la inteligencia artificial, con un equipo de la Escuela de Computación Interactiva en el Instituto de Tecnología de Georgia alimentando de historias a un algoritmo en 2016.
El ejercicio le permitió a la IA aprender secuencias aceptables de eventos, así como comprender mejor el comportamiento humano.
“Las historias recopiladas de diferentes culturas les enseñan a los niños cómo comportarse de maneras socialmente aceptables con ejemplos de comportamiento apropiado e inapropiado en fábulas, novelas y otra literatura”, dijo Mark Riedl, uno de los investigadores involucrados en el estudio.
“Creemos que la AI tiene que ser educada para adoptar los valores de una sociedad en particular, y al hacerlo, se esforzará por evitar comportamientos inaceptables. Dar a los robots la capacidad de leer y comprender nuestras historias puede ser el medio más conveniente en ausencia de un manual de usuario humano”.