A medida que el mundo comienza a ampliar los límites y el uso de los sistemas de inteligencia artificial (IA), hay un aumento correspondiente en los accidentes, casi accidentes e incluso muertes originadas por esta tecnología. Dichos incidentes, que van desde accidentes automovilísticos sin conductor hasta sistemas de chat que crean contenido racista, aumentarán rápidamente, según los expertos que dan seguimiento a los problemas de la IA.
El desarrollo y la implementación de los sistemas de inteligencia artificial en 2023 es notable: desde que OpenAI lanzó chatGPT ha habido prisa por crear modelos de aprendizaje en muchos campos, incluidos la generación de imágenes, tareas automatizadas, finanzas y otras áreas. Pero con el aumento exponencial en el despliegue de IA vienen las huellas que corresponden a lo que podría describirse mejor como eventos desafortunados, algunos con consecuencias trágicas.
La base de datos de incidentes de inteligencia artificial (AI Incident Database) rastrea errores, cuasi accidentes e incidentes críticos causados por los sistemas de IA y abarca algunos eventos impactantes. En general, hay más de 500 incidentes, y están aumentando rápidamente. En 2022, la base de datos tenía 90 incidentes. Tan solo durante los primeros tres meses de 2023 ya hay 45, lo que significa que, al ritmo actual, estamos en camino de alcanzar alrededor de 180 en 2023. Si es que el uso de la inteligencia artificial se mantuviera constante, lo que claramente no será así.
ACCIDENTES DE INTELIGENCIA ARTIFICIAL SE DUPLICARÁN
Sean McGregor, fundador del proyecto AI Incident Database y doctor en aprendizaje automático, dice a Newsweek: “Prevemos que los incidentes de inteligencia artificial se dupliquen con creces en 2023 y nos estamos preparando para un mundo en el que es probable que los incidentes de esta tecnología sigan alguna versión de la ley de Moore”.
La ley de Moore fue la predicción del cofundador de Intel, Gordon Moore, en 1965, de que la cantidad de transistores en un circuito se duplicaría cada dos años y, como resultado, la velocidad y la capacidad informática aumentarían de la misma manera. La trayectoria de los incidentes relacionados con la IA es clara.
El uso más generalizado de la inteligencia artificial creará más oportunidades de error, pero como explicó McGregor, no hay forma de medir cuánta IA se está implementando en este momento como se puede hacer en otros sectores comerciales.
“Por milla, la aviación es más segura que nunca. El problema con el análisis de tendencias de incidentes de inteligencia artificial es que nadie tiene una gran medida de la ‘distancia’ que recorre la IA. Sabemos que la cantidad de sistemas inteligentes en el mundo se está disparando, pero nadie puede decir: ‘La IA es un 30 por ciento más segura que el año anterior’ porque solo observamos los fracasos y no los éxitos”, apunta.
FALLAS FATALES
Algunas de esas fallas son socialmente inaceptables, pero no fatales, como cuando el software de fotos Google Photos etiquetó a unas personas negras como “gorilas” en 2015, o una herramienta de reclutamiento que Amazon tuvo que cerrar en 2018 por ser sexista cuando marcó a las candidatas.
Otros son fatales: un robot de la planta de Volkswagen mató a un trabajador al sujetarlo a una placa de metal. En 2019, un auto Tesla Model S en modo de piloto automático supuestamente se pasó un semáforo rojo y chocó contra otro automóvil, matando a dos personas en Gardena, Los Ángeles.
También se incluye en la lista el vuelo fatal de Lion Air de 2018 que mató a las 189 personas a bordo. El Boeing 737 se estrelló en el mar después de que los datos defectuosos del sensor provocaran que un sistema de maniobra automatizado empujara repetidamente la nariz del avión hacia abajo.
El primer incidente incluido en la base de datos es milagroso, y habría sido mucho más importante que cualquier otra cosa que la humanidad haya enfrentado: lo más cerca que ha estado el mundo de una guerra nuclear total. En septiembre de 1983, un teniente coronel soviético de la Fuerza Aérea llamado Stanislav Petrov decidió que el sistema de alerta de misiles que había detectado cinco misiles estadounidenses que se dirigían a la Unión Soviética era una falsa alarma.
UNA BASE DE DATOS MUNDIAL
Si hubiera informado de la advertencia como un ataque real, en ese momento el sistema existente habría detonado una represalia inmediata con misiles nucleares. No hubo tiempo para verificar, ni mucho menos de intentar canales diplomáticos, y la guerra nuclear habría comenzado entre Estados Unidos y la Unión Soviética, causando muchos millones de muertes y el fin de gran parte de la civilización. No es exagerado decir que Petrov “salvó el mundo” tal como lo conocemos.
¿La causa del error? El sistema confundió la luz del sol reflejada en las nubes. Petrov fue reprendido por sus superiores y reasignado a un puesto de menor importancia.
McGregor apunta: “Una gran parte de lo que estamos haciendo en este momento es prepararnos para un mundo donde los incidentes de inteligencia artificial son increíblemente comunes. Corresponde a los responsables políticos, los actores comerciales y la humanidad en general construir la infraestructura social necesaria para doblar esa curva hacia abajo”.
La base de datos de incidentes de IA está a cargo de The Responsible AI Collaborative, una organización sin fines de lucro creada para ayudar a que la inteligencia artificial sea más segura. La base de datos es de código abierto y cuenta con una red de voluntarios en todo el mundo.
Organizaciones con la mayor parte de las entradas en la base de datos de incidentes de IA: Facebook, 46; Tesla, 35; Google, 28; Amazon, 18; OpenAI, 18; y YouTube, 13. N
(Publicado en cooperación con Newsweek. Published in cooperation with Newsweek).
Newsweek en Español te recomienda también estas notas: