La inteligencia artificial (IA) es ampliamente anunciada por su potencial para mejorar la productividad en la investigación científica, pero con esa promesa vienen los riesgos que podrían limitar la capacidad de los científicos para comprender mejor el mundo, según un nuevo artículo de la Universidad de Yale, Estados Unidos.
Algunos futuros enfoques de inteligencia artificial, argumentan los autores, podrían restringir las preguntas que hacen los investigadores, los experimentos que realizan y las perspectivas que se basan en los datos y las teorías científicas.
En total, estos factores podrían dejar a las personas vulnerables a “ilusiones de comprensión” en las que creen que comprenden el mundo mejor que ellos. El artículo se publicó el 7 de marzo en Nature.
LA INTELIGENCIA ARTIFICIAL PROVOCA QUE SE PRODUZCA MAYOR INVESTIGACIÓN MIENTRAS SE ENTIENDE MENOS
“Existe el riesgo de que los científicos utilicen la inteligencia artificial para producir más mientras entienden menos”, dijo la coautora Lisa Messeri. “No estamos argumentando que los científicos no deberían usar herramientas de IA, pero estamos abogando por una conversación sobre cómo los científicos las usarán y sugiriendo que no deberíamos asumir automáticamente que todos los usos de la tecnología, o el uso ubicuo de la misma, beneficiarán a la ciencia”.
Los autores clasificaron las visiones propuestas de la inteligencia artificial que abarcan el proceso científico que actualmente están creando revuelo entre los investigadores en cuatro arquetipos.
En el diseño del estudio, argumentan que las herramientas de “IA como oráculo” se imaginan como capaces de buscar, evaluar y resumir de manera objetiva y eficiente la literatura científica masiva, ayudando a los investigadores a formular preguntas en la etapa de diseño de su proyecto.
Así también en la recopilación de datos, se espera que las aplicaciones de “IA como sustitutos” permitan a los científicos generar puntos de datos sustitutos precisos, incluso como reemplazo de los participantes en el estudio en humanos, cuando los datos son demasiado difíciles o costosos de obtener.
CUATRO RIESGOS
En el análisis de datos, las herramientas de “IA como cuantificación” buscan superar la capacidad del intelecto humano para analizar conjuntos de datos vastos y complejos.
Y las aplicaciones de “IA como árbitro” tienen como objetivo evaluar objetivamente los estudios científicos en cuanto a mérito y replicabilidad, reemplazando así a los humanos en el proceso de revisión por pares.
Los autores advierten contra el tratamiento de las aplicaciones de inteligencia artificial de estos cuatro arquetipos como socios de confianza, en lugar de simplemente herramientas, en la producción de conocimiento científico. Hacerlo, dicen, podría hacer que los científicos sean susceptibles a las ilusiones de comprensión, lo que puede engarrar sus perspectivas y convencerlos de que saben más de lo que saben.
Las eficiencias y los conocimientos que prometen las herramientas de IA pueden debilitar la producción de conocimiento científico mediante la creación de “monoculturas de conocimiento”, en las que los investigadores priorizan las preguntas y los métodos más adecuados para la inteligencia artificial sobre otros modos de investigación, afirman los autores.
Un entorno académico de ese tipo deja a los investigadores vulnerables a lo que llaman “ilusiones de amplitud exploratoria”, donde los científicos creen erróneamente que están explorando todas las hipótesis comprobables, cuando solo están examinando la gama más estrecha de preguntas que se pueden probar a través de la inteligencia artificial. N