El Ejército español no usa inteligencia artificial. «Por ahora no tenemos un programa de auténtica IA», resume Juan Rodríguez Garat, almirante retirado de la Armada y autor del libro Tambores de guerra (La Esfera de los Libros). «Es prematuro confiar en esta tecnología, así que creo que es buena idea ir con pies de plomo, sobre todo porque no estamos en guerra. La verdadera IA no se limita a automatizar procesos, toma sus propias decisiones sin ni siquiera explicarlas. Y puede haber sesgos éticamente inaceptables. Así que España hace bien», añade.
Rodríguez Garat vislumbra que lo lógico sería aplicar la IA, en un primer momento, a la gestión de bases de datos administrativas militares. Y a partir de ahí, comenzar a implementarla en otras áreas. Pero sin dejar a esta tecnología la responsabilidad de apretar el gatillo. «Hoy por hoy, con el estado actual de la IA, desde luego pondría ese límite. En el futuro no se sabe, puede progresar mucho. Quizás podamos reconsiderarlo si vemos que los errores que comete son muy inferiores a los humanos. Aunque siempre habrá reparos éticos», sostiene.
Con todo, hay países que han decidido saltarse todos los pasos que propone el almirante, dejar atrás cualquier tipo de precaución y apostar fuerte por la IA en el campo de batalla. La información disponible sobre los usos de esta tecnología en las guerras nos llega con cuentagotas, y en ocasiones no es muy clara. Pero sabemos algunas cosas de cómo se está utilizando en la invasión rusa a Ucrania (por parte de los dos países) y en el polvorín de Oriente Próximo.
Oriente Próximo
«Los principales países de Oriente Próximo en cuanto a IA son Emiratos Árabes Unidos (EAU), Arabia Saudí e Irán, pero Israel es sin duda la primera potencia militar en esta tecnología en la región«, relata Farzin Nadimi, experto en defensa de The Washington Institute, que detalla que en esa zona «el uso de la IA abarca la vigilancia, los drones, la guerra cibernética, la logística y la planificación estratégica, con algunas naciones a la cabeza gracias a sus capacidades tecnológicas y asociaciones estratégicas».
El experto explica que el Estado hebreo está «especialmente avanzado» en el reconocimiento facial, la detección de objetos y el análisis del comportamiento para vigilar posibles amenazas. Algo que recuerda a las palabras del escritor israelí Yuval Noah Harari, que alertó de que su país «ya está creando un régimen totalitario gracias a la IA». También han utilizado herramientas para mejorar la precisión de sus ataques y reforzar sus ciberdefensas. Pero hay que hablar de dos sistemas concretos. El primero es The Ghospel, y está diseñado para marcar los edificios e infraestructuras enemigos considerados clave militarmente (algo que les ha llevado a atacar hospitales y escuelas de la UNRWA). Y la segunda es Lavender, que marca, directamente, a las personas.
«La muerte es un algoritmo para Lavender: puntúa a los 2,3 millones de habitantes de Gaza según un baremo de 1 a 100 en función de sus previsibles inclinaciones políticas, y señala objetivo. El programa contempla que por cada dirigente de Hamás o Yihad Islámica muera un centenar de civiles. Previamente, la inteligencia artificial se ha encargado de trazar historias de vida y movimientos, y, en función de probabilidades, identificar adscripciones ideológicas y marcar objetivos, entre los que se incluyen familiares y allegados de los líderes palestinos», escribió Luz Gómez García, catedrática de Estudios Árabes e Islámicos de la Universidad Autónoma de Madrid, en su libro Palestina: heredar el futuro.
Una investigación de la revista +972 reveló que Lavender ha desempeñado un papel central en los bombardeos sin precedentes sobre Gaza. Durante las primeras semanas de la guerra, el Ejército hebreo dependió «casi por completo» de este sistema, que registró hasta 37.000 palestinos como presuntos militantes. Su importancia fue tal que fuentes de inteligencia israelís admitieron que trataron los resultados de la máquina de IA «como si fuera una decisión humana» para atacar sistemáticamente las casas de las personas marcadas, normalmente de noche, cuando su familia también estaba presente.
«A Israel no le faltan blancos a los que atacar, pero tienen un problema muy serio. Estas tecnologías tienen un efecto de caja negra, así que nunca llegamos a saber a ciencia cierta por qué determinan que una persona que está en la calle es un blanco válido o no. Y aunque tienen supervisión humana, es nominal. Los propios israelís se han quejado de que tienen que supervisar tantos casos que se limitan a poner un tick y a aprobarlos. Así que podemos decir que es una tecnología que funciona, pero que da bastantes errores, y por ello en un futuro aumentará el número de víctimas civiles en Gaza y en el Líbano», ilustra Rodríguez Garat, que apunta que esta IA podría estar detrás de muertes como las de los siete cooperantes de la ONG del chef español José Andrés.
Más allá del Estado judío, el resto de países de la zona también se están moviendo. Nadimi detalla que los EAU están invirtiendo activamente en tecnologías de IA como parte de su iniciativa Visión 2031 para convertirse en líderes mundiales en este sector. Y por su parte, los esfuerzos de Arabia Saudí buscan diversificar su economía y modernizar sus industrias militares, siendo el mejor ejemplo la Ciudad Rey Abdulaziz para la Ciencia y la Tecnología (KACST), un centro de desarrollo puntero en el mundo.
Y por último, Irán. Nadimi habla de que la República de los Ayatolás utiliza la IA con fines ofensivos y defensivos, centrándose en una guerra asimétrica (especialmente en la cibernética y la vigilancia no tripulada) mientras importa tecnología china basada en IA para reprimir las revueltas populares. Estos sistemas les han permitido automatizar tareas como la infiltración de datos, la penetración en redes y la detección de vulnerabilidades en sistemas enemigos, gracias a lo que han logrado atacar infraestructuras enemigas como redes de energía y sistemas financieros. En paralelo, también la han implementado para luchar la guerra de la información, analizando las tendencias de las RRSS para crear propaganda a medida.
Guerra Ucrania-Rusia
En la guerra de Rusia y Ucrania, asegura Rodríguez Garat, la IA se utiliza más en cuestiones tácticas y de análisis. «Los dos países han presumido de que utilizan sistemas para drones y munición merodeadora, como el Lancet ruso o el Scout ucraniano. Pero también la utilizan para propaganda», desliza.
A pesar de ello, el almirante destaca que no les está dando los resultados esperados: «En estas aplicaciones la IA no está funcionando. Los drones normalmente necesitan un enlace, un operador que los maneje para tomar decisiones. Lo que están haciendo es enseñarles a que identifiquen los tanques enemigos, y que cuando lo hagan lancen los proyectiles. Pero los analistas que han estudiado estos asuntos dicen que es mucho más fácil enseñarle a una IA a jugar al ajedrez que a distinguir un tanque, o a algo que los niños hacen desde pequeños, que es a distinguir la cara de sus madres. Hay tales errores en esos sistemas que no están funcionando. Los drones ucranianos y rusos siguen dependiendo de un operador».
En 2023 el Centro Belfer, un centro de investigación de la Universidad de Harvard (Estados Unidos), publicó un artículo que recogía que Palantir, una de las principales empresas de IA a nivel mundial, había admitido que su empresa es responsable de la mayor parte de los ataques del Ejército ucraniano, incluyendo obtención de información oportuna de los satélites y las redes sociales para los tanques y la artillería, para visualizar las posiciones amigas y enemigas, para comprender los movimientos de las tropas y para realizar evaluaciones de los daños en el campo de batalla. «Empresas occidentales como Planet Labs, BlackSky Technology y Maxar Technologies también están produciendo imágenes satelitales de conflictos, compartiendo datos y análisis con el gobierno y el Ejército ucranianos», afirmaron.
Además, el mismo artículo recordaba que la invasión rusa de Ucrania ha dado lugar al primer uso registrado del reconocimiento facial en combate, ya que el Ejército ucraniano había utilizado la inteligencia artificial Clearview, con sede en Estados Unidos, para identificar a los soldados rusos muertos, descubrir a los agresores rusos y combatir la desinformación. Los informes públicos también sitúan a la IA en el centro de los esfuerzos asistidos por los aliados en materia de guerra electrónica, ciberguerra y cifrado.
La empresa estadounidense Primer ha desplegado su IA para analizar las comunicaciones de radio rusas no cifradas, utilizando el procesamiento del lenguaje natural para comprender las formas específicas que utilizan los soldados rusos para comunicarse. En 2022 Microsoft informó también de que las ciberdefensas ucranianas habían tenido éxito gracias a los avances en la inteligencia de amenazas mejorada por IA y la rápida distribución de software de protección a los servicios en la nube y otras redes informáticas.
En cuanto a la utilización por parte del Ejército ruso, desde el Centro Belfer admitían que «hay pocos ejemplos, si es que hay alguno, de la aplicación práctica visible de la IA por parte de Rusia en esta guerra». En junio de 2023, los canales de Telegram en ruso informaron que la munición merodeadora Lancet-3 estaba utilizando redes neuronales convolucionales para recopilar, clasificar y analizar imágenes y contenido de video en pleno vuelo. Pero aunque sonaba técnicamente increíble, los investigadores hablaban de que, en realidad, el reconocimiento real de los Lancets generalmente lo llevan a cabo otros drones rusos como ZALA o un Orlan-10.
En 2022 el dron merodeador KUB-BLA también generó inquietud por su capacidad de identificar objetivos de forma autónoma, pero su uso «relativamente escaso y a menudo ineficaz» no confirmó, según los expertos, sus supuestas capacidades avanzadas. «Tales afirmaciones a menudo carecen de pruebas definitivas o incluso de una admisión pública del Ministerio de Defensa o del gobierno, lo que dificulta determinar si el Ejército ruso utiliza realmente la inteligencia artificial de esa manera«, deslizaron.
Con todo, el proyecto estrella de Rusia en visión artificial sigue siendo el Marker, un vehículo terrestre no tripulado de combate con procesamiento del lenguaje natural, navegación, movimiento autónomo y capacidad de control de vehículos en grupo. «Si bien algunas pruebas realizadas en 2021 supuestamente permitieron que un grupo de Markers viajara de forma autónoma por terrenos complicados, no está claro si este vehículo puede de hecho usarse en tales funciones en Ucrania. El Ejército ruso está tratando de utilizar la IA en la guerra de la información, aunque la escasa evidencia sugiere una brecha entre las propias deliberaciones del Ministerio de Defensa sobre este tema y los resultados prácticos reales dirigidos a civiles y militares ucranianos», zanjaban en el mismo artículo.