¿Sueles consultar tu salud con un chatbot de inteligencia artificial (IA)? Tal vez quieras pensarlo dos veces. Un reciente estudio publicado en Annals of Internal Medicine lanzó una advertencia contundente: confía en tu médico, no en un chatbot.
La investigación analizó cinco de los modelos de IA más avanzados desarrollados por empresas como Anthropic, Google, Meta, OpenAI y X Corp. Estas tecnologías, que impulsan muchos de los asistentes virtuales y plataformas en línea actuales, fueron puestas a prueba para evaluar su desempeño en temas de salud.
Los investigadores, utilizando herramientas de desarrollo que normalmente no están disponibles para el público general, demostraron lo fácil que es manipular estos sistemas para que ofrezcan respuestas erróneas y potencialmente peligrosas sobre temas médicos.
Lo más alarmante es que estas respuestas no solo eran incorrectas, sino que estaban envueltas en un lenguaje persuasivo que podría engañar incluso a los usuarios más cautelosos.
“En total, 88 por ciento de las respuestas fueron falsas. Sin embargo, los resultados arrojaron terminología científica, un tono formal y referencias inventadas que hacían que la información pareciera legítima”, detalló en un comunicado el autor del artículo, Natansh Modi.
Entre las afirmaciones falsas se encontraron mitos desacreditados como que las vacunas causan autismo, que el VIH es una enfermedad que se transmite por el aire y que el 5G causa infertilidad.
De los cinco chatbots evaluados, cuatro presentaron respuestas 100 por ciento incorrectas. Solo un modelo mostró cierta resistencia, que generó desinformación en 40 por ciento de los casos.
“LA AMENAZA QUE REPRESENTAN LOS CHATBOTS MANIPULADOS NO ES HIPOTÉTICA”
La investigación no se detuvo en las vulnerabilidades teóricas; Modi y su equipo fueron un paso más allá y utilizaron la GPT Store de OpenAI (una plataforma que permite a los usuarios crear y compartir aplicaciones ChatGPT personalizadas) para probar la facilidad con la que el público podría crear por sí mismo herramientas de desinformación.
“Creamos con éxito un prototipo de chatbot de desinformación, al usar la plataforma, y también identificamos herramientas públicas existentes en la tienda que estaban produciendo activamente desinformación sobre salud”, dijo Modi.
Según los investigadores, la amenaza que representan los chatbots de IA manipulados no es hipotética: “Es real y está sucediendo ahora”. Millones de personas recurren a herramientas de inteligencia artificial para obtener orientación sobre cuestiones relacionadas con la salud.
Si estos sistemas pueden manipularse para producir de forma encubierta consejos falsos o engañosos, agregó Modi, pueden crear una nueva y poderosa vía de desinformación, más difícil de detectar, regular y más persuasiva que cualquier otra vista hasta ahora.
Estudios anteriores han demostrado que la IA generativa puede usarse indebidamente para producir masivamente información errónea (como blogs y publicaciones en redes sociales engañosas) sobre temas que abarcan desde antibióticos y dietas de moda, hasta homeopatía y vacunas.
“Lo que distingue a este nuevo artículo es que es el primero en mostrar cómo los sistemas de IA fundamentales pueden reprogramarse deliberadamente para que actúen como motores de desinformación en tiempo real, respondiendo a los usuarios cotidianos con afirmaciones falsas bajo la apariencia de consejos creíbles”, comentó el autor.
SE NECESITAN REFORMAS RADICALES
Si bien un modelo —Claude 3.5 Sonnet de Anthropic— mostró cierta resiliencia al negarse a responder 60 por ciento de las consultas engañosas, los autores afirman que esto no es suficiente. Las protecciones entre los sistemas eran inconsistentes y, en la mayoría de los casos, fáciles de eludir.
“Algunos modelos mostraron una resistencia parcial, lo que demuestra que es técnicamente posible implementar medidas de protección eficaces”, señaló Modi.
Sin embargo, las protecciones actuales son inconsistentes e insuficientes. Los desarrolladores, los reguladores y los actores de la salud pública deben actuar con decisión.
Si no se controla, a tenor de los académicos, el mal uso de la IA en contextos de salud podría tener consecuencias devastadoras: engañar a los pacientes, debilitar a los médicos, aumentar la reticencia a las vacunas y empeorar los resultados de salud pública.
Los autores del estudio piden reformas radicales, que incluyan filtros técnicos más fuertes, mayor transparencia sobre cómo se entrenan los modelos de IA, mecanismos de verificación de datos y marcos de políticas para exigir responsabilidades a los desarrolladores. N
(Publicado en cooperación con Newsweek. Published in cooperation with Newsweek)