El auge de la inteligencia artificial generativa (IAG), reconocida por su habilidad para producir imágenes, textos, videos e incluso música, ha dejado claro su potencial como una herramienta versátil y poderosa con múltiples aplicaciones. Sin embargo, al mismo tiempo ha dado origen a las alucinaciones debido a que los grandes modelos lingüísticos (LLM) generan contenido que no está fundamentado en hechos reales o precisos, lo que pone en evidencia su fiabilidad.
Existen diversos ejemplos de esto. En internet circulan infinidad de imágenes que, a simple vista, se ven reales e incluso suplantan a personalidades relevantes, como artistas y presidentes. Pero si las observamos a detalle, su textura, resolución o proporciones en su anatomía delatan que son creadas con IA.
O bien, hay casos como el de un grupo de abogados que usó ChatGPT para elaborar un expediente en el que incluyeron referencias legales falsas. El abogado contrario, al notar que no podía encontrar dichos precedentes en bases de datos jurídicas, alertó al juez, quien impuso una multa de 5,000 dólares por presentar información errónea como parte de la investigación.
También lee: La inteligencia artificial estaría dispuesta a matar para no ser sustituida, revela estudio
Esto ha generado diversos debates y cuestionado la ética y las graves consecuencias en cuanto a la desinformación o manipulación. Lo que formula una pregunta clave: ¿podemos confiar en todo lo que dice la inteligencia artificial generativa?
LA IAG NO TIENEN CONOCIMIENTO EN EL SENTIDO HUMANO
Aunque sus respuestas suelen ser útiles y convincentes, debemos entender que representan solo una parte del complejo funcionamiento que hay detrás de esta tecnología. Las alucinaciones no son intencionales, sino el resultado directo de cómo fueron entrenados los modelos. No entienden el mundo ni tienen conocimiento en el sentido humano. Simplemente, predicen la siguiente palabra y siguen una secuencia basándose en patrones de datos con los que fueron entrenados.
Los modelos de IA funcionan como una persona que ha leído muchos libros, pero no sabe qué es verdad o mentira: simplemente intenta continuar la historia con base en lo que ha leído.
No te pierdas: Cuidado con lo que te dice la IA: los chatbots generan errores, sesgos y noticias falsas
Además, existen varias razones por las que la IA puede alucinar: falta de contexto o datos insuficientes, exceso de confianza en patrones, actualización limitada o sesgos del entrenamiento. No obstante, esto también puede ser positivo, según el estudio “No todas las alucinaciones son malas: las limitaciones y los beneficios de la IA generativa”, de NTT DATA.
Al comprender cómo y cuándo ocurren estos errores podemos desarrollar técnicas para aprovecharlos en aplicaciones creativas e innovadoras. Por ejemplo, al darle al modelo un mensaje inicial y permitirle alucinar libremente, es posible crear nuevos diseños de productos, campañas publicitarias o incluso guiones para películas.
¿CÓMO APROVECHAR LAS ALUCINACIONES DE LA INTELIGENCIA ARTIFICIAL?
Otra manera de aprovecharlas es para crear datos sintéticos, un tipo de información artificial que se genera para imitar datos del mundo real, sin comprometer información sensible o confidencial. O se pueden usar para desarrollar nuevas formas de arte y entretenimiento, como crear nuevos géneros musicales, películas o videojuegos, con lo que se generarían experiencias únicas y novedosas que no serían posibles con métodos convencionales.
Lo cierto es que, a medida que los modelos de inteligencia artificial generativa continúan aprendiendo y mejorando, es fundamental usar las alucinaciones con precaución. Siempre se deben verificar los resultados antes de aplicarlo en el mundo real.
Asimismo, hay ciertas medidas que se pueden tomar: corroborar la información en fuentes fiables, hacer preguntas cruzadas, cuidar los datos personales (nombres, cifras y fechas) y observar el tono con el que da las respuestas. Los errores de esta tecnología siguen siendo una limitación importante, pero también una oportunidad para aprender a interactuar con ellas de forma más crítica.
La IA no es infalible, pero tampoco es peligrosa por sí sola. Lo importante es usarla con pensamiento crítico. Si aprendemos a identificar sus límites también descubriremos todo su potencial. N
—∞—
Juan Carlos Montero Vilchis es jefe de Tecnología Digital en NTT Data México. Los puntos de vista expresados en este artículo son responsabilidad del autor.