Científicos crean redes neuronales con la capacidad, similar a la humana, de hacer generalizaciones sobre el lenguaje. El sistema de inteligencia artificial (IA) funciona tan bien como los humanos al incorporar palabras recién aprendidas en un vocabulario existente y utilizarlas en contextos nuevos, lo cual es un aspecto clave de la cognición humana conocido como generalización sistemática.
De acuerdo a un nuevo estudio publicado en Nature, el trabajo podría conducir a las máquinas que interactúen con las personas de forma más natural que incluso los mejores sistemas de inteligencia artificial actuales. Aunque los sistemas basados en grandes modelos de lenguaje, como ChatGPT, son expertos en conversación en muchos contextos, “muestran lagunas e inconsistencias evidentes”.
“El rendimiento similar al humano de la red neuronal sugiere que ha habido un gran avance en la capacidad de entrenar redes para que sean sistemáticas”, dice Paul Smolensky, científico cognitivo especializado en lenguaje en la Universidad Johns Hopkins en Baltimore.
El artículo explica que la generalización sistemática se demuestra por la capacidad de las personas para utilizar sin esfuerzo palabras recién adquiridas en entornos nuevos.
Por ejemplo, una vez que alguien haya comprendido el significado de la palabra “fotobomba”, podrá utilizarla en una variedad de situaciones, como “fotobomba dos veces” o “fotobomba durante una llamada de zoom”. De manera similar, alguien que entienda la frase “el gato persigue al perro” también entenderá “el perro persigue al gato” sin pensarlo mucho.
LA INVESTIGACIÓN PODRÍA HACER QUE LAS REDES NEURONALES APRENDAN MÁS EFICIENTEMENTE
A diferencia de las personas, las redes neuronales luchan por usar una palabra nueva hasta que han sido entrenadas con muchos textos de muestra que utilizan ese término. Los investigadores de IA han discutido durante casi 40 años sobre si las redes neuronales podrían alguna vez ser un modelo plausible de cognición humana si no pueden demostrar este tipo de sistematicidad.
Para el estudio, los autores primero probaron con 25 personas qué tan bien implementaban las palabras recién aprendidas en diferentes situaciones.
“Al igual que un niño también practica cuando aprende su lengua materna, los modelos mejoran sus habilidades de composición a través de una serie de tareas de aprendizaje de composición”, apunta Melanie Mitchell, científica informática y cognitiva del Instituto Santa Fe en Nuevo México.
Elia Bruni, especialista en procesamiento del lenguaje natural de la Universidad de Osnabrück en Alemania, dice que esta investigación podría hacer que las redes neuronales aprendieran más eficientemente. Esto reduciría la gigantesca cantidad de datos necesarios para entrenar sistemas como ChatGPT. Y minimizaría las “alucinaciones”, que ocurren cuando la IA percibe patrones que son inexistentes y crea resultados inexactos. N