La tecnología de inteligencia artificial está a punto de transformar la naturaleza de la guerra y de los conflictos.
EL 29 DE AGOSTO, tres días después de que un terrorista suicida matara a 13 soldados estadounidenses y 160 civiles en el aeropuerto de Kabul, la inteligencia militar estadounidense rastreaba lo que se pensaba que sería otro ataque potencialmente devastador: un auto que circulaba hacia el aeropuerto “cargado” con lo que se veía sospechosamente como explosivos. El plan era que uno de los drones Reaper del ejército siguiera en video al coche y lo destruyera con un misil Hellfire en un momento en el que no hubiera civiles inocentes cerca. Como era de esperar, el carro se detuvo en un lugar tranquilo.
El comandante táctico, que con toda probabilidad trabajaba en la Base Creech de la Fuerza Aérea en Nevada, había recibido la luz verde del general Kenneth F. McKenzie Jr., el jefe del Comando Central de Estados Unidos en Tampa, Florida. Ya que la información en video se transmite entre comandantes militares dispersos alrededor del mundo, a menudo tiene un retraso de varios segundos. En este caso, ese retraso bien pudo dar tiempo suficiente a que un puñado de civiles se acercara al vehículo perseguido, según los militares estadounidenses. La explosión mató hasta diez civiles afganos, incluidos siete niños, y suscitó una indignación internacional. Han surgido dudas con respecto a si, en primer lugar, el auto siquiera representaba una amenaza.
Conforme los estrategas militares consideran cómo prevenir amenazas futuras del Estado Islámico (ISIS), Al Qaeda y otros grupos que pudieran surgir en un Afganistán controlado por los talibanes —o en cualquier otra ubicación remota, dado el caso—, buscan una mejor manera de atacar desde lejos. Esa búsqueda se encamina en una dirección perturbadora: permitir que las máquinas decidan cuándo, y tal vez a quién, matar.
En años venideros, los Reapers y otros drones estadounidenses estarán equipados con tecnología avanzada de inteligencia artificial. Esto presenta un escenario alarmante: drones militares almacenados en diminutas bases sin humanos dentro o cerca de Afganistán, listos para despegar, peinar el territorio, analizar al instante las imágenes que tomen, identificar y determinar actividad terrorista, asegurarse de que el blanco esté libre de civiles, disparar un misil, confirmar el asesinato y regresar a la base, todo ello con poca o nula intervención humana.
El motivo de equipar a los drones Reaper con inteligencia artificial (IA) no es principalmente humanitaria, por supuesto. El verdadero propósito del armamento con IA es obtener una abrumadora ventaja militar, y en este aspecto, la IA es altamente prometedora. En un momento en el que Estados Unidos ha retirado a sus tropas de Afganistán y está renuente a comprometerlas en otros conflictos alrededor del mundo, la capacidad de atacar a la distancia con armas no tripuladas se ha vuelto un elemento clave de la estrategia militar estadounidense. La inteligencia artificial, al dotar a las máquinas con la capacidad de tomar sus propias decisiones en el campo de batalla, hace viable esta estrategia.
Integrar la tecnología de IA a los sistemas de armas le abre la puerta a hacerlas más pequeñas y más baratas que las versiones tripuladas, amén de ser capaces de reaccionar más rápido y atacar objetivos con más precisión, sin arriesgar las vidas de los soldados. Se están esbozando los planes para incluir la IA no solo en los Reapers autónomos, sino en todo un arsenal, que va desde aviones caza hasta submarinos y misiles, los cuales serán capaces de atacar terroristas y fuerzas enemigas por completo bajo su propio control.
También lee: Por qué no se pone fin a las guerras perpetuas
Las naciones no tienen la costumbre de mostrar su tecnología más avanzada. A juzgar por lo que ha salido a la luz en varios informes, las armas equipadas con IA se están conectando en línea con rapidez. El progreso (si se le puede llamar así) hacia máquinas militares autónomas aún más capaces se ha acelerado en años recientes, gracias tanto a los avances enormes en el campo de la IA como en las inversiones enormes de Rusia, China, Estados Unidos y otros países ansiosos de tener una ventaja en su poderío militar sustentada en la IA, o por lo menos no rezagarse mucho con respecto a sus rivales.
Rusia tiene tanques robóticos y misiles que pueden elegir sus propios objetivos. China tiene lanzacohetes móviles y no tripulados, submarinos y otras armas con inteligencia artificial todavía en desarrollo. Turquía, Israel e Irán buscan armas con IA. Mientras tanto, Estados Unidos ya ha desplegado buques autónomos de caza submarina y misiles rastreadores de tanques, y se trabaja en mucho más. El Pentágono actualmente gasta más de 1,000 millones de dólares al año en IA, y esto incluye solo el gasto en presupuestos hechos públicos. Alrededor de 10 por ciento del presupuesto del Pentágono está envuelto en secreto, y otros cientos de millones de dólares están ocultos en los presupuestos de otras agencias.
Los científicos, analistas políticos y defensores de los derechos humanos han expresado su preocupación por los próximos arsenales con IA. Algunos dicen que dichas armas son vulnerables a errores y piratas informáticos que podrían amenazar a personas inocentes. A otros les preocupa que permitirles a las máquinas iniciar ataques mortales por su cuenta es poco ético y presenta un riesgo moral inaceptable. Otros más temen que el surgimiento de las armas con IA les dé a las naciones malvadas y organizaciones terroristas la capacidad de golpear arriba de su categoría, afectando el equilibrio mundial del poder, lo cual llevaría a más confrontaciones (que potencialmente impliquen armas nucleares) y guerras.
EL SALTO A LA INTELIGENCIA ARTIFICIAL
Estas objeciones no han conseguido frenar la carrera por las armas con inteligencia artificial. Los líderes militares estadounidenses parecen menos preocupados por tales inconvenientes que con estar a la par con China y Rusia. “La IA en la guerra ya está sucediendo”, dice Robert Work, exsubsecretario de Defensa estadounidense y copresidente de la Comisión Nacional de Seguridad sobre la IA. “Todos los importantes competidores militares del mundo están explorando qué más se puede hacer con ella, incluido Estados Unidos”. Sin importar quién gane la carrera, los contornos de la fuerza militar —quién la tiene y cómo la usa— están a punto de cambiar radicalmente.
Los drones equipados con misiles han sido un pilar del antiterrorismo estadounidense y otros combates militares por dos décadas, pero dejan muchos daños colaterales: entre 900 y 2,200 civiles han muerto en ataques con drones estadounidenses en los últimos 20 años, 300 o más de ellos eran niños, según la Oficina de Periodismo de Investigación, ubicada en Londres. También son dados a retrasos en la transmisión de video que, casi con seguridad, han llevado a oportunidades perdidas porque un breve momento oportuno se perdió antes de que un equipo pudiera darle luz verde al piloto remoto.
En contraste, un dron equipado con IA podría ubicar, validar y disparar contra un objetivo en pocas centésimas de segundo, expandiendo muchísimo la capacidad de los militares de atacar desde lejos. Esa capacidad podría permitir más ataques estadounidenses, en cualquier parte del mundo, como el asesinato del general iraní Qasem Soleimani en enero de 2020 mientras visitaba Irak. También podría darle a Estados Unidos medios más efectivos para llevar a cabo respuestas quirúrgicas pero mortales a las afrentas como los ataques del gobierno sirio con armas químicas a su propio pueblo, sin que se requiera enviar a un solo soldado estadounidense al país.
Mejorar la precisión y elección del momento oportuno de los ataques con drones también podría reducir la pesada dependencia de los militares estadounidenses en los ataques con aeronaves convencionales. Según Airwars, un independiente grupo británico de monitoreo, esos ataques estadounidenses han cobrado las vidas de hasta 50,000 civiles desde 2001, y ponen en riesgo a los pilotos humanos, y sus aeronaves de 100 millones de dólares.
Las armas que busquen objetivos sin un control humano no son del todo nuevas. En la Segunda Guerra Mundial, Estados Unidos desplegó torpedos que podían escuchar a los U-Boote alemanes y perseguirlos. Desde entonces, los militares han desplegado cientos de tipos diferentes de armas de fuego, misiles guiados y drones capaces de apuntar por sí mismos y fijarse en los objetivos.
La diferencia con los sistemas de armamento con inteligencia artificial es la naturaleza y potencia del software del arma que toma las decisiones. Hasta hace poco, cualesquiera programas de computadora que se integraban a un sistema de control de armamento tenían que ser escritos por programadores humanos, dando instrucciones paso a paso para lograr tareas simples y reducidas en situaciones específicas. Hoy, el software de AI emplea algoritmos de “aprendizaje de máquina” que en realidad escriben su propio código después de ser expuestos a miles de ejemplos de cómo se vería una tarea completada exitosamente, ya sea reconocer un tanque enemigo o mantener a un vehículo autónomo lejos de los árboles.
No te pierdas: Inteligencia artificial en salud conlleva riesgos por uso ‘poco ético’ de datos sanitarios: OMS
El código resultante no se ve en absoluto como la programación informática convencional, pero sus capacidades van mucho más allá de ella. Las armas autónomas convencionales tienen que ser colocadas cerca o apuntadas a objetivos enemigos aislados o fácilmente reconocibles, no sea que se fijen en un objeto erróneo. Pero las armas con inteligencia artificial, en principio, pueden ser simplemente soltadas para que vigilen o cacen a casi cualquier tipo de objetivo, decidiendo por su cuenta cuál atacar y cuándo. Pueden rastrear objetivos que pudieran varias en apariencia o comportamiento, cambiar de objetivos y navegar por un terreno e el que no están familiarizadas con mal tiempo, mientras reconocen y evitan a las tropas aliadas o civiles.
Las potenciales ventajas militares son enormes. “La inteligencia artificial puede reducir el costo y riesgo de cualquier misión, y acercarse al adversario mientras se tiene a los combatientes fuera de peligro”, dice Tim Barton, director de tecnología del Dynetics Group, que desarrolla sistemas aéreos no tripulados para el Departamento de Defensa de Estados Unidos. “Y pueden recibir y revisar la información a la velocidad de la luz. Los humanos ya no pueden hacerlo lo bastante rápido”.
El asesinato robótico no es un tipo de posibilidad futurística: ya está aquí. Ese Rubicón se cruzó el año pasado en Libia, cuando un dron de combate, equipado con inteligencia artificial y que operó por completo fuera del control humano, mató a rebeldes milicianos que combatían a soldados del gobierno. En esencia una versión en la vida real de los drones “cazadores-asesinos” presentados en la película Terminator 3,el “sistema letal de armamento autónomo” Kargu-2, de hechura turca, voló sobre el campo de batalla, reconoció a los rebeldes que huían, se lanzó contra ellos y disparó una carga explosiva, según un informe de marzo de las Naciones Unidas que se hizo público en mayo.
LAS POTENCIAS MÁS INTELIGENTES
Rusia, China, Irán y Turquía han demostrado sus armas con inteligencia artificial. Hasta ahora, el ataque mortal libio es el único caso público de dichas armas en el campo de batalla. Aun así, hay mucha evidencia de que posiblemente suceda con más frecuencia en el futuro.
Los militares rusos han sido francos con respecto a trabajar frenéticamente para aprovechar las capacidades de la IA. Según Tass, la agencia estatal de prensa de Rusia, el país está desarrollando un misil guiado con inteligencia artificial que puede elegir a su objetivo en pleno vuelo; una ametralladora que apunte por sí sola; vehículos autónomos para vigilancia y combate terrestre, aéreo, marino y submarino; un tanque robótico repleto de armas de fuego, misiles y lanzallamas, y estaciones de radar con base en la IA, entre otros proyectos. El Comité Industrial Militar de Rusia, el órgano del país que toma las decisiones militares más importantes del país, ha declarado su intención de convertir casi la tercera parte de su potencia de fuego en inteligencia artificial para 2030.
China ha sido más cautelosa sobre los detalles, probablemente para minimizar la preocupación por sus muchos acuerdos de negocios con compañía de IA en Silicon Valley y otras partes de Estados Unidos y alrededor del mundo. Pero pocos observadores dudan que la inversión enorme del país en ciencia y tecnología de inteligencia artificial se pase a las armas. Algunos de los principales líderes militares y de la industria de defensa de China así lo han dicho en público, prediciendo que las armas letales “inteligentes” serán comunes para 2025, y pronto ayudarán a cerrar la brecha entre los militares chinos y los de Estados Unidos, Europa y Rusia.
Irán ha mostrado drones suicidas totalmente autónomos, y sus generales han prometido tenerlos y posiblemente otras armas con IA en desarrollo, incluidos misiles y robots, listos para desplegarlos en 2024. Irán ya ha lanzado ataques con drones contra Arabia Saudita, Israel y fuerzas estadounidenses en Irak, y afectó un petrolero de propiedad israelí, matando a dos miembros de la tripulación, en un ataque con drones cerca de la costa de Omán a finales de julio. No hay evidencia de que alguno de los ataques fuese asistido por la IA, pero pocos expertos dudan que Irán la empleará en ataques futuros tan pronto como sea posible, quizás antes de pulir la tecnología e incorporar salvaguardas.
Los aliados de Estados Unidos también entran en liza. El Reino Unido ha desarrollado pequeños misiles que determinan por sí mismos sus objetivos, probó una ametralladora montada en un vehículo autónomo y mostró sistemas de defensa de misiles controlados por la inteligencia artificial en sus barcos. Mientras tanto, Israel continúa fortaleciendo su sistema de misiles de defensa aérea Patriot “Domo de Hierro”, altamente empleado y muy efectivo, con más y más capacidades asistidas por la IA. La tecnología es tan capaz, que el ejército de Estados Unidos ha instalado baterías israelíes de Domo de Hierro para su defensa fronteriza en Nuevo México y Texas.
Por supuesto, Estados Unidos no se ha cruzado de brazos. En 2018, el Pentágono formó el Centro Conjunto de Inteligencia Artificial para estimular y coordinar el desarrollo de la IA y su integración en todas las fuerzas militares. Una de las principales razones es que Rusia y China están desarrollando misiles de crucero “hipersónicos” que pueden viajar a más de cinco veces la velocidad del sonido. A esas velocidades, los humanos tal vez no sean capaces de reaccionar con la suficiente rapidez para comenzar las medidas defensivas o lanzar misiles de contraataque en una situación de “úsalo o piérdelo”. Al hablar en una conferencia de 2019 de expertos en defensa, el vicealmirante Jon Hill, director de la Agencia de Defensa contra Misiles de Estados Unidos, lo dijo de esta manera: “Con el tipo de velocidades que estamos lidiando hoy día, ese tipo de tiempo de reacción que necesitamos tener hoy día, no hay otra respuesta aparte de apuntalar la inteligencia artificial”.
Te interesa: El rostro nada inteligente de la inteligencia artificial
El Pentágono tiene varios programas en marcha. Uno involucra proyectiles de cañón guiados y con propulsión a chorro que se pueden disparar en la dirección general del enemigo con el fin de buscar sus objetivos a la vez que se evita a los aliados. Mientras tanto, la armada ha recibido dos buques autónomos para una variedad de misiones, incluido el hallar submarinos enemigos, y está desarrollando submarinos no tripulados. Y en diciembre, la fuerza aérea mostró que está convirtiendo los sistemas de navegación y radar de un avión espía U-2 a control de inteligencia artificial.
El 3 de agosto, incluso cuando los talibanes empezaban a tomar el control de Afganistán ante la partida de las fuerzas estadounidenses, el coronel Mike Jiru, un oficial ejecutivo del programa de Comando de Material Bélico para la fuerza aérea, dijo a la Air Force Magazine que los militares planean cierta cantidad de mejoras al Reaper, el muy confiable dron militar estadounidense. Las mejoras incluyen la capacidad de despegar y aterrizar de forma autónoma, y la adición de computadoras poderosas pensadas específicamente para ejecutar software de inteligencia artificial.
“Estamos en un sendero en el que los líderes no preguntan fundamentalmente si deberíamos militarizar la IA”, comenta Ingvild Bode, profesora titular del Centro de Estudios de Guerra en la Universidad del Sur de Dinamarca.
AQUÍ VIENEN LOS ENJAMBRES DE DRONES
Los pequeños drones autónomos posiblemente tengan el impacto más inmediato. Ello se debe a que son relativamente baratos y fáciles de producir en grandes cantidades, no requieren de mucho soporte o infraestructura, y posiblemente no creen un caos masivo si algo sale mal. Lo más importante es que, gracias a la IA, son capaces de dar una ventaja enorme en casi cualquier tipo de conflicto o combate, incluidas las represalias contra terroristas, la guerra asimétrica o un conflicto sin cuartel entre naciones.
Un solo dron pequeño y autónomo puede volar para reconocer la ubicación de terroristas u otros enemigos y enviar de vuelta imágenes invaluables y otros datos, a menudo sin ser detectado. Como el Kargu-2, puede soltar una carga explosiva contra objetivos enemigos. Tales drones ofensivos pueden servir como “municiones deambulantes”, que simplemente vuelen sobre un campo de batalla o territorio terrorista hasta que la IA identifique un objetivo apropiado y se lance a matar. Los drones autónomos más grandes y equipados con IA, como el Harpy de Israel, pueden hallar una estación de radar u otro objetivo importante por su cuenta y disparar un misil pequeño para destruirlo. Prácticamente todo país con una fuerza militar grande está explorando el armamento de drones con capacidad de inteligencia artificial.
El verdadero punto de inflexión serán las formaciones, o enjambres, de drones autónomos que puedan cubrir un área con cámaras suficientes u otros tipos de sensores para detectar y analizar casi cualquier actividad del enemigo. Coordinar los vuelos de toda una red de drones va más allá de las capacidades de los controladores humanos, pero es perfectamente factible con la IA.
Mantener coordinado el enjambre ni siquiera es la parte más difícil. El reto más grande es usar la gran cantidad de imágenes y otros datos que envíen de vuelta. “El verdadero valor de la inteligencia artificial es recabar e integrar la información que proviene en grandes cantidades de los sensores, y eliminar la información que no les interesará a los operadores militares”, dice Chris Brose, director de estrategia de Anduril, una compañía de Irvine, California, que hace sistemas basados en IA y drones, entre otras tecnologías de defensa.
El Proyecto Maven del Pentágono, un programa con cuatro años de antigüedad, busca usar la IA para detectar y rastrear actividad enemiga a partir de transmisiones de video. Google contribuyó con sus propios y amplios recursos de desarrollo de la IA al proyecto, hasta que los empleados presionaron a la compañía en 2018 para que se retirara, preocupados por la militarización de la inteligencia artificial. (El Departamento de Defensa ha negado que el Proyecto Maven esté enfocado en aplicaciones militares, pero esa afirmación es ampliamente descartada).
Más allá de solo detectar actividad enemiga, el siguiente paso es aplicar la IA al “combate en el campo de batalla”, o sea, abrirse paso entre la niebla de la guerra y ayudar a los comandantes militares a entender todo lo que sucede en una situación de combate, y luego decidir qué hacer con ella. Ello podría incluir mover tropas, seleccionar objetivos y traer apoyo aéreo y refuerzos con base en información al instante transmitida por los enjambres de drones, satélites y una gama de sensores dentro y alrededor del combate. “Hay muchísimas cosas que compiten por la atención del soldado en la guerra”, explica Mike Heibel, director de programa del equipo de defensa aérea de Northrop Grumman, que trabaja en inteligencia artificial para combate en el campo de batalla para los militares estadounidenses. “La IA tiene las capacidades para elegir amenazas y enviar información en 3-D a un cañón”. Northrop Grumman ya ha mostrado un sistema móvil que hace exactamente eso.
Te recomendamos: ¿El mundo se dirige hacia un Pearl Harbor cibernético?
El trabajo de Estados Unidos en el combate en el campo de batalla mejorado por la IA ha avanzado en varios frentes. La Agencia Nacional de Inteligencia Geoespacial de Estados Unidos ya ha liberado la IA en 12 millones de imágenes satelitales con el fin de detectar un lanzamisiles enemigo. El ejército ha desarrollado experimentalmente un sistema basado en la IA, llamado Prometheus, que extrae actividad enemiga de imágenes en tiempo real, determina por sí mismo cuáles de las actividades cumplen con los criterios de los comandantes de objetivos de alta prioridad y transmite esas ubicaciones a las armas de artillería para que apunten automáticamente hacia ellas.
Cuanto más los militares abrazan la IA, más sonoro es el coro de objeciones de los expertos y defensores. Una gran preocupación es que las armas guiadas por inteligencia artificial atacarán por error a civiles o a fuerzas aliadas o provocarán más bajas innecesarias de lo que lo harían los operadores humanos.
Tales preocupaciones están bien fundamentadas. Los sistemas de IA en teoría pueden ser hackeados por gente de fuera, al igual que cualquier software. Las salvaguardas tal vez sean más robustas que las de los sistemas comerciales, pero los riesgos son mucho más altos cuando los resultados de una irrupción cibernética son armas poderosas a la deriva. En 2011, varios drones estadounidenses desplegados en Oriente Medio fueron infectados con virus malignos, una advertencia de que las armas dependientes de un software son vulnerables.
EL PROBLEMA DE LA CAJA NEGRA
Incluso si los militares pueden mantener sus sistemas de IA seguros de los piratas informáticos, ello tal vez todavía no sea capaz de asegurar que el software de inteligencia artificial siempre se comporte como se piensa. Ello se debe a lo que se conoce como el problema de la “caja negra”: dado que los algoritmos de aprendizaje de máquina escriben su propio código complejo y difícil de analizar, los expertos humanos en software no siempre pueden predecir lo que hará un sistema de IA en situaciones inesperadas. Las pruebas reducen pero no eliminan las posibilidades de sorpresas desagradables; no pueden cubrir la cantidad esencialmente infinita de condiciones únicas que un arma controlada por inteligencia artificial puede enfrentar en el caos del conflicto.
Los coches autónomos, que son controlados por programas de IA más o menos similares a los empleados en las aplicaciones militares, dan una analogía útil. En 2018, un Uber sin chofer golpeó y mató a un peatón en Tempe, Arizona. El peatón estaba cruzando una calle a pie con su bicicleta fuera de un paso de cebra, un escenario que simplemente nunca se había probado. “La IA puede interpretarlo mal de maneras que son totalmente ajenas a los humanos”, dice Bode, de la Universidad del Sur de Dinamarca. “No podemos probar la capacidad de un sistema para que diferencie entre civiles y combatientes en todas las situaciones”.
La cosa se pone peor. Un enemigo puede aprovecharse de las debilidades conocidas de los sistemas de IA. Podría alterar la apariencia de los uniformes, edificios y armas o cambiar su comportamiento de manera tal que confunda a los algoritmos. Los autos sin chofer han sido engañados a propósito para que cometan errores con calcomanías pegadas en las señales de tránsito, letreros de calles falsos y luces alumbrando directamente sus sensores. “¿Puedes hacer que un avión lleno de pasajeros se vea como un objetivo enemigo y provoque que un sistema de armas con IA se comporte mal?”, pregunta Barton, de Dynetics. Añade que, en combate, los riesgos de interpretarlo bien son mucho más altos. “Tenemos que integrar esa protección desde el principio, no añadírsela después”.
Incluso si los sistemas de inteligencia artificial militares funcionan exactamente como se los pensó, ¿es ético darles a las máquinas la autoridad para destruir y matar? Work, el exsubsecretario de Defensa, insiste en que los militares estadounidenses están comprometidos estrictamente con mantener a un humano que tome decisiones en la “cadena de muerte”, para que ninguna arma elija a un objetivo y dispare por su cuenta sin una aprobación. Pero otras naciones tal vez no sean tan cuidadosas, comenta. “Hasta donde sabemos, los militares estadounidenses son los únicos que han establecido principios éticos para la IA”.
Veintidós naciones le han pedido a Naciones Unidas que prohíba las armas automatizadas capaces de operar fuera de la supervisión humana, pero hasta ahora no se ha firmado acuerdo alguno. Human Rights Watch y otros grupos defensores han pedido prohibiciones similares sin ningún resultado. Si Rusia, China y otros les dan a las armas con IA la autoridad para elegir objetivos, Estados Unidos podría enfrentar un dilema: hacer lo mismo u operar con una desventaja militar.
Ello establece una carrera hacia el abismo en la que el adversario menos ético o más descuidado —el que sea más agresivo con respecto a desplegar armas con capacidad de IA, sin importar la confiabilidad o las salvaguardas— fuerza a los otros a seguir su ejemplo. Las armas nucleares se podrían colocar bajo el control de sistemas defectuosos de IA que busquen señales de que la inteligencia artificial de alguien más está a punto de lanzar sus propias armas nucleares. La IA está “aumentando el riesgo de un recrudecimiento inadvertido o accidental provocado por una mala percepción o un mal cálculo”, dice James Johnson, un investigador de política exterior en la Universidad de la Ciudad de Dublín, Irlanda, y autor de Artificial Intelligence and the Future of Warfare(Inteligencia artificial y el futuro de la guerra.
También lee: Incertidumbre por una nueva Guerra Fría
Tanto Estados Unidos como Rusia se han negado en repetidas ocasiones a permitir que la Convención sobre Ciertas Armas Convencionales (CCAC) de Naciones Unidas, el principal órgano internacional para los tratados de armas, prohíba las armas letales controladas por la IA. Las reuniones para discutir que se revise la CCAC están planeadas para diciembre, pero hay poco optimismo de que se llegue a un acuerdo; entre las naciones más poderosas, solo China ha expresado su apoyo a semejante tratado. Las naciones de la OTAN han discutido la posibilidad de un acuerdo, pero no se ha dado algo definitivo. Si Estados Unidos negocia las armas con IA de forma separada con otros países, se ha dicho poco públicamente al respecto.
Incluso si las acciones diplomáticas llevan a límites en el uso de la IA, verificar su apego sería mucho más difícil que, digamos, inspeccionar los silos de misiles nucleares. Los líderes militares en un mundo hostil y competitivo no son conocidos por su capacidad de resistirse al armamento avanzado, sin importar las consecuencias. N
—∞—
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek