Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Cómo la inteligencia artificial está transformando los ejércitos y la naturaleza de las guerras

Foto de archivo de un soldado ucraniano con un dron

Javier de la Sotilla

Washington DC —

0

Año 2029. La inteligencia artificial ha superado a la humana y las máquinas han conquistado el planeta. Un ejército de robots asesinos se dispone a exterminar a toda vida terrenal que se interponga en su camino. Despiadadas, frívolas, invencibles: así son las máquinas de guerra que nos vendió James Cameron en el futuro apocalíptico de una de sus películas de cabecera, Terminator (1984).

Lejos de su ficción, los planes de las principales potencias militares distan del desarrollo de robots asesinos antropomórficos, al menos en el corto plazo. Pero hay una predicción acertada: la inteligencia artificial (IA) ya está transformando el carácter de las guerras y va a suponer una nueva revolución militar, tal como lo fueron la pólvora, el motor de combustión, la aviación o la bomba nuclear. Aunque al ritmo que avanza esta disrupción y su despliegue, se hace difícil presagiar qué forma tomará en 2029.

El lanzamiento de GPT-4, los chats de Microsoft (Bing) y Google (Bard), o la creación de imágenes de Midjourney, han supuesto la primera democratización de una tecnología que hace años que existe. Conforma, de hecho, una pata central de la carrera armamentística entre las potencias mundiales. Drones autónomos, identificación de objetivos, prevención de movimientos enemigos, desarrollo de estrategias militares, simulación de batalla y logística militar. Estos son algunos de los múltiples usos que ya le están dando los principales ejércitos del mundo, tanto dentro como fuera del campo de batalla.

“A lo largo de la última década, la inteligencia artificial se ha convertido en una capacidad crítica para la defensa nacional de EEUU”, explica a elDiario.es Lauren Kahn, investigadora del Council on Foreign Relations (CFR) y experta en innovación en defensa y su impacto en la seguridad internacional. “Desde el 2010, ha habido una nueva ola de crecimiento, con grandes avances en el procesamiento del lenguaje y el aprendizaje automático (deep learning)”.

El Pentágono “ha acelerado el desarrollo de estas capacidades, especialmente desde la invasión de Ucrania”, señala la investigadora, que también es autora del estudio Risky Incrementalism: Defense AI in the United States. También otras potencias militares como China, Rusia, Reino Unido, India, Turquía e Israel han redoblado su inversión en esta tecnología durante el conflicto, que está sirviendo como test primerizo de la IA en un contexto de guerra. Pero, ¿cuáles son las utilidades reales de la IA a nivel militar, hasta qué punto la están usando los ejércitos y qué riesgos representa para la humanidad?

Más allá del campo de batalla

“Las municiones, las plataformas y las fuerzas armadas son las partes más visibles de cualquier cadena de muerte. Menos visibles, pero no por ello menos importantes, son las capacidades que las unen, haciendo que el todo sea mayor que la suma de sus partes. Son precisamente esas capacidades en las que queremos invertir”, dijo la Subsecretaria de Defensa estadounidense, Kathleen Hicks, durante una rueda de prensa celebrada a principios de marzo en el Pentágono.

La IA ya está presente, de una forma u otra, en casi todas las guerras del mundo. El ejemplo más claro es el uso de drones, pequeños vehículos aéreos que llevan años presentes en los conflictos armados y que en la última década han comenzado a atacar de manera autónoma.

En 2019, durante la segunda guerra civil de Libia, un enjambre formado por una veintena de vehículos aéreos no tripulados turcos identificó a sus objetivos –fieles al general Jalifa Haftar– y los atacó por cuenta propia lanzándose sobre ellos y explotando, según lo describió un informe de Naciones Unidas sobre el conflicto libio. Se convirtió en una de las primeras matanzas documentadas llevadas a cabo íntegramente por inteligencia artificial en una guerra.

Al año siguiente, durante el conflicto en Nagorno-Karabaj, las tropas de Azerbaiyán usaron el mismo tipo de drones, provenientes de Turquía e Israel, para devastar a las unidades armenias. Y, en 2022, EEUU envió a Ucrania centenares de máquinas similares de fabricación propia, llamadas Phoenix Ghost, cuyo desarrollo aceleraron precisamente tras la invasión rusa.

“A corto plazo, cabe esperar que siga aumentando la tendencia actual de mayor uso de sistemas semiautónomos. A largo plazo, está claro que pasaremos a un modelo de sistemas totalmente autónomos”, aventura para este diario Kevin Desouza, experto en IA del centro Brookings, que trabajó durante más de dos décadas en el departamento de innovación del ejército estadounidense.

Dichos drones semiautónomos, llamados “merodeadores”, son más pequeños que los que ha venido usando EEUU en Irak y Afganistán y patrullan y bombardean sin la necesidad de intervención humana. Más allá de estas máquinas de guerra, la capacidad de identificar enemigos mediante inteligencia artificial es una tecnología que lleva usándose décadas, por ejemplo en los misiles tierra-aire Patriot (desplegados en 1981), que EEUU también se ha comprometido a enviar a Ucrania en las próximas semanas.

Debido a los recientes avances armamentísticos, “es mucho más fácil visualizar los avances en el campo de batalla”, reconoce la investigadora Kahn, “pero son más determinantes en la guerra las utilidades menos atractivas, como la gestión de datos, la logística y la organización, que hasta el día de hoy han requerido mucho esfuerzo humano y para las que la IA puede dar una solución muy eficiente”.

Por ejemplo, la empresa de software Palantir, una de las múltiples compañías privadas que proveen al ejército estadounidense de soluciones de inteligencia artificial, lleva desde 2008 colaborando con el Pentágono en la recogida de datos y su procesamiento para ofrecer respuestas “rápidas y prácticas” a los mandos, dentro y fuera del campo de batalla. Su CEO, Alex Karp, dijo en febrero que su empresa es “responsable de la mayoría de identificaciones -de tanques y artillería- del enemigo en Ucrania”. Además, el software de Palantir ha usado datos de los satélites y las redes sociales para visualizar las posiciones enemigas y determinar rápidamente los recursos a desplegar o para encontrar la ruta logística más eficiente, entre otras utilidades militares.

Los riesgos: ¿un robot al mando de la guerra?

Todas las distopías que narran un futuro impregnado de inteligencia artificial coinciden al identificar su principal riesgo: que escape al control del ser humano. Aplicado al mundo militar, “dada su naturaleza autónoma, estos sistemas podrían tomar decisiones contrarias a nuestra concepción sobre las normas de la guerra o la pérdida aceptable”, ejemplifica el investigador Desouza.

Las fuentes consultadas concuerdan en que los principales peligros de la IA tienen que ver con el uso de algoritmos mal diseñados que podrían ser responsables de numerosas víctimas civiles y de accidentes de fuego amigo.

Un ejemplo de esto último se dio en 2003, cuando el sistema automatizado de un misil Patriot identificó erróneamente a un avión amigo como adversario y los operadores humanos decidieron disparar, terminando con la vida de un piloto estadounidense. “Está demostrado que, en situaciones de estrés, los humanos confían más en las decisiones de la IA y esta confianza ciega puede suponer un peligro durante la batalla”, escribe el profesor Michael C. Horowitz en Foreign Affairs.

Además, “la IA podría conducir a una escalada indeseada”, alerta a elDiario.es Lauren Kahn. “Por ejemplo, imagina que tienes un sistema de misiles con un algoritmo de aprendizaje automático (deep learning) y decide disparar a un enemigo. ¿Cómo convences al adversario de que fue un accidente, si no puedes señalar a ningún humano? En esta tecnología, puedes conocer los inputs y los outputs, pero es realmente complicado entender cómo se da la toma de decisiones”. Dada esta condición, “¿nos interesa poner a la IA, por ejemplo, al mando de los sistemas nucleares? yo veo claro que no”, reflexiona.

Para evitar este tipo de amenazas, “tenemos que dotarnos de convenciones aceptadas a nivel mundial, como las existentes para el armamento nuclear, químico y biológico”, añade Desouza. Y esas convenciones van a ser todo un reto porque gran parte del desarrollo de IA proviene del sector privado, que colabora y comparte recursos con el público. De este modo, siguiendo la tendencia de las últimas décadas, “va a aumentar drásticamente el número de actores de la seguridad internacional. Va a ser necesaria una mayor implicación del sector privado y el académico”, aventura Kahn, “ya lo hemos visto con la guerra de Ucrania: Elon Musk proporcionó a los ucranios sus satélites Starlink, una tecnología comercial, pero que tiene implicaciones militares muy directas”.

Precisamente, parte del mundo privado y académico –Elon Musk, Steve Wozniak (Apple) o Yuval Noah Harari, entre otros– firmó una carta en la que pide a las organizaciones que “pausen durante al menos 6 meses” su desarrollo de IA, hasta que el mundo haya acordado su hoja de ruta para que estos sistemas sean más “precisos, seguros, interpretables, transparentes, robustos, neutrales, confiables y leales”.

Aunque todavía no existe ninguna convención internacional al respecto, el mes pasado tuvo lugar en La Haya la primera Cumbre sobre Inteligencia Artificial Responsable en el Ámbito Militar (REAIM, en inglés), en la que participaron 57 países, incluidos todos los miembros del Consejo de Seguridad de la ONU, excepto Rusia. Una de las cuestiones que se debatió fue la prohibición global de los sistemas autónomos, que principalmente apoyan estados del Sur Global, pero el consenso sobre este asunto está lejos. Por su parte, EEUU presentó su set de principios éticos de la IA (2020), en los que se basa la declaración de Principios sobre el Uso Responsable de la OTAN (2021).

Finalmente, el único resultado de la cumbre fue un Llamado a la Ación, firmado por la mayoría de los países presentes, que subraya la necesidad de seguir trabajando en un acuerdo mundial y fomenta el intercambio de buenas prácticas. Es decir, ninguna medida tangible y concreta por el momento.

El “punto débil” de la hegemonía militar estadounidense

El Pentágono lleva más de una década aumentando año tras año su inversión en IA y el mes pasado Biden propuso la mayor financiación hasta la fecha en su presupuesto para el ejercicio fiscal 2024. Éste contempla un total de 842.000 millones de dólares para el Departamento de Defensa (un 5% más que en 2023) y la mayor parte del aumento se la lleva Investigación y Desarrollo, con su partida más alta de la historia en dólares nominales, 210.000 millones.

De este dinero, el plan de Biden es invertir 1.800 millones en desarrollo de capacidades de IA y otros 1.400 millones en el JADC2, el sistema que agrupa la recolección de datos mediante sensores de todos los servicios militares (Fuerza Aérea, Ejército, Marina, Armada y Fuerza Espacial) en una misma red, algo crucial para esta tecnología. El presupuesto dependerá de la aprobación de la Cámara de Representantes, ahora liderada por la oposición republicana, que rechaza el presupuesto, pero no precisamente por su aumento del gasto militar.

Sin embargo, “la IA sigue siendo un punto débil del ejército estadounidense”, asegura Kahn, especialmente si se compara con la inversión –en proporción al gasto total en defensa– de otras potencias militares, como China o Rusia. A pesar de que su presupuesto total en defensa (unos 224 mil millones de dólares) es casi cuatro veces menor al estadounidense, China lleva años priorizando la inversión en IA y planea convertirse en el líder mundial en 2030.

Rusia también ha entrado en esta competición: en una declaración de intenciones, Vladimir Putin llegó a asegurar que el primer Estado en conquistar la inteligencia artificial será el “dirigente del mundo”.

En cambio, en EEUU “hay bastante retraso debido a los desafíos burocráticos y organizativos, las preocupaciones sobre la seguridad y la gran cantidad de sistemas heredados”, argumenta la investigadora, que ha identificado en el Pentágono “una gran aversión al cambio”.

Históricamente, las potencias que han liderado el desarrollo militar se han visto más reticentes a la adopción de nuevas tecnologías disruptivas, ancladas en la confianza que les otorgaba su armamento existente. Por ejemplo, Francia contó en la Primera Guerra Mundial con desarrollos envidiables, pero fue superada en la Segunda sin grandes complicaciones por parte del ejército nazi, que además de haber invertido mucho en innovación militar, rodeó la Línea Maginot y llevó a cabo otro novedoso plan ofensivo: el ataque blitzkrieg.

En el caso estadounidense, a pesar de que lleva más de una década aumentando la inversión, realmente ha sido en el último año, tras la invasión de Ucrania, cuando ha demostrado su intención de liderar esta competición. Biden creó el puesto de jefe de inteligencia digital y artificial en el Departamento de Defensa, así como el grupo de trabajo sobre IA, que publicó en enero su informe final. En él, se reconoce que “países como China han realizado inversiones a largo plazo que están dando sus frutos en términos de logros científicos y tecnológicos. Por ejemplo, los autores chinos han superado a los estadounidenses en citas de publicaciones de revistas sobre IA”, una tecnología que “se ha convertido en una faceta central de la competencia geopolítica”.

Después de casi un siglo liderando la innovación armamentística, el ejército estadounidense podría estar también quedándose atrás en la implementación de la IA y otras tecnologías militares. Si en 1960 tan solo tardaba cinco años en llevar sus avances del laboratorio al campo de batalla, hoy tarda alrededor de 10 años.

En el caso del despliegue de tecnología con IA, el Pentágono se ha mostrado especialmente reticente, por el miedo a que amenace otros sistemas existentes. Por ejemplo, las Fuerzas Aéreas y la Armada crearon en 2003 los prototipos X-45 y X-47, dos aviones semiautónomos y sin tripulación, pero decidieron abandonar el programa al considerarlo una amenaza para sus existentes cazas F-35.

Al ritmo que avanza el desarrollo de la IA, es demasiado pronto para predecir la forma que tomará la guerra en 2029, año en el que está ambientada la distopía de Terminator. Lo que está claro es que el aprendizaje automático ha comenzado a transformar los ejércitos, sus inversiones y prioridades. Y cada vez va a ser una herramienta más útil para matar.

Etiquetas
stats