Desde que comenzó la guerra en Gaza sabíamos que el ejército de Israel utiliza la Inteligencia Artificial. Los algoritmos ayudan a fijar objetivos a gran velocidad, a elaborar mapas interactivos para el movimiento de las tropas y a marcar las posiciones de Hamas. Una investigación periodística realizada en Israel nos ha dado más detalles. El ejército utilizó, sobre todo en los primeros días del conflicto, una base de datos de inteligencia artificial que identificó 37.000 objetivos potenciales por sus aparentes vínculos con Hamás. Lo han contado funcionarios de inteligencia israelíes.

Algunos indican que tienen más confianza en un mecanismo estadístico que en un soldado afligido. La máquina sería la mejor solución para no dejarse llevar por los sentimientos provocados por el ataque del 7 de octubre. Estos funcionarios señalan que invertían 20 segundos en cada persona a la que bombardear y que no aportaban nada como seres humanos. Su tarea era simplemente validar lo que había señalado la Inteligencia Artificial. Los ataques contra esos objetivos se realizaban normalmente con municiones no guiadas, conocidas como «bombas tontas», bombas que destruían casas enteras y mataban a todos sus ocupantes.

El que se esté utilizando Inteligencia Artificial en la guerra no significa ni mucho menos que la responsabilidad personal se diluya, y tampoco la de quienes tienen la dirección militar y política de los ataques. La máquina obedece al hombre que la programa, en realidad no es inteligente.