Una investigación publicada por +972 Magazine y Local Call, y recogida por varios medios de Estados Unidos esta semana, describe la existencia de un programa del ejército de Israel llamado “Lavender” (Lavanda), el cual utiliza inteligencia artificial para identificar objetivos en Gaza con un cierto margen de error.
En los primeros días de la guerra en la Franja de Gaza, que está por cumplir los seis meses con más de 32,800 muertos, el ejército israelí dependió casi por completo de “Lavender“; este algorítmico “determinó 37,000 palestinos como presuntos milicianos de Hamás, convirtiéndoles tanto a ellos como a sus residencias en objetivos militares”, informa la investigación periodística.
El diario israelí Sicha Mekomit (llamado en su versión en inglés +972) se basó en fuentes de inteligencia para su investigación. Señala que “los soldados adoptaron sin cuestionarse las ‘listas de matar’ recomendadas por un sistema de inteligencia artificial denominado ‘Lavender’. Una vez los nombres eran sugeridos, el personal humano dedicaba unos ’20 segundos’ a cada objetivo antes de autorizar un bombardeo.
“LAVENDER”, UN PROGRAMA DE ISRAEL CON 10 POR CIENTO DE ERROR
“Lavender” pese a estar creado con inteligencia artificial, no es tan exacto, dice el documento. El algoritmo conlleva un margen de error en aproximadamente 10 por ciento de los casos. Ello significa que ocasionalmente puede incriminar “a personas que tienen simplemente una conexión vaga con grupos militantes, o ninguna conexión en absoluto”.
El texto periodístico también señala que muchas de las personas señaladas por “Lavender” fueron milicianos de muy bajo rango. Sin embargo, fueron atacados de forma “sistemática” en sus hogares. “Normalmente de noche, mientras toda su familia estaba presente”, ello porque eran un blanco más fácil.
“No estábamos interesados en matar a los agentes [de Hamás] solo cuando se encontraban en un edificio militar o participando en una operación militar”, dijo un oficial de inteligencia a +972. “Por el contrario, las Fuerzas de Defensa de Israel los bombardearon en sus casas, sin dudarlo, como primera opción”, añadió, alegando que “el sistema está diseñado para buscarlos en estas situaciones”.
LOS PELIGROS DE LA INTELIGENCIA ARTIFICIAL
En las primeras semanas de guerra, según dos fuentes citadas en anonimato por la investigación, “el ejército decidió que el ataque contra cualquier joven agente de Hamás señalado por “Lavender” podría ocasionar la muerte de entre 15 o 20 civiles, un ratio de no combatiente sin precedentes”.
El secretario general de la ONU, Antonio Guterres, dijo este viernes 5 de abril que estaba “profundamente preocupado” por los informes de que Israel estaba utilizando inteligencia artificial para identificar objetivos en Gaza, y rechazó la idea de que “decisiones de vida o muerte” se deleguen en algoritmos como “Lavender”.
“Estoy profundamente preocupado por las informaciones según las cuales la campaña de bombardeos del ejército israelí incluye la inteligencia artificial como herramienta para identificar objetivos, en particular en zonas residenciales densamente pobladas, lo que provoca un elevado número de víctimas civiles”, declaró Antonio Guterres a la prensa.
Destacó que ha advertido durante muchos años sobre los peligros de transformar la inteligencia artificial en armamento y reducir “el papel esencial de la agencia humana”. N
(Con información de +972 Magazine, AFP y Heraldo España)