La guerra del algoritmo: cuando el objetivo ya no es el ejército, sino la persona

IMAGE: A sniper’s high-tech scope locks onto a political figure walking through a crowded city street, symbolizing AI-driven targeted warfare

Lo que estamos viendo y viviendo estos días no es simplemente una guerra más tecnológica. Es algo más profundo y más inquietante: un modelo de conflicto en el que el objetivo prioritario deja de ser destruir unidades militares o conquistar territorio, para pasar a ser el identificar, localizar y eliminar a personas concretas dentro de la cadena de mando, del aparato científico o del sistema político del adversario.

La novedad no está en la «decapitación» como idea, que lleva décadas en la doctrina militar y de inteligencia, sino en la posibilidad de industrializarla mediante datos, sensores, vigilancia ubicua y sistemas algorítmicos capaces de cruzar información a una velocidad y a una escala nunca vistas.

Gaza ha sido el laboratorio más visible de esa evolución. La investigación de Associated Press sobre el uso de modelos de IA y servicios cloud por parte del ejército israelí describe cómo esas herramientas sirven para procesar inteligencia, comunicaciones interceptadas y vigilancia con el fin de generar objetivos «más rápido». No es un detalle menor: cuando la infraestructura comercial de empresas como Microsoft, Google, Amazon u OpenAI entra en el ciclo operativo de una guerra, la distancia entre Silicon Valley y el campo de batalla deja de ser conceptual para convertirse en puramente contractual. Human Rights Watch ha ido aún más lejos al documentar el uso de herramientas digitales como Lavender, The Gospel o Where’s Daddy?, y advertir que trabajan con datos defectuosos e inferencias inexactas que pueden agravar el riesgo para la población civil.

La otra pieza clave es la identificación individual. La expansión de sistemas de reconocimiento facial y biometría en Gaza, explicada por The Guardian a partir de reportajes previos y entrevistas con expertos en derechos humanos, encaja perfectamente en esta lógica: ya no se trata solo de vigilar un territorio, sino de convertir a cada cuerpo que lo cruza en un dato explotable. Cuando una guerra aprende a ver rostros, a correlacionarlos con historiales de llamadas, desplazamientos, parentescos o patrones de comportamiento, el enemigo deja de ser una fuerza y pasa a ser una identidad concreta. El campo de batalla ya no está únicamente en el mapa: está en la base de datos.

Líbano mostró otra derivada de esa misma transformación: la capacidad de penetrar cadenas de suministro, redes de comunicaciones y circuitos de confianza del adversario hasta convertirlos en armas. El caso de los pagers de Hezbollah, posteriormente documentado por AP, no fue solo una operación espectacular, sino la demostración de que la superioridad tecnológica contemporánea consiste también en contaminar el ecosistema material del enemigo. No hace falta imaginar una distopía de cámaras hackeadas en cada esquina para entender la lógica: basta con una combinación muy sofisticada de inteligencia, infiltración, vigilancia y capacidad de ataque preciso para convertir las rutinas del adversario en vulnerabilidades letales.

Irán aporta el siguiente escalón: la extensión de esa lógica de decapitación al corazón de un Estado. Associated Press resumió el impacto de los ataques israelíes de junio de 2025 señalando cómo diezmaron a la cúpula de la Guardia Revolucionaria y golpearon también a científicos y a infraestructuras críticas. Más recientemente, la propia agencia ha advertido en otro análisis que la eliminación sistemática de líderes puede ofrecer éxitos tácticos inmediatos, pero rara vez resuelve el conflicto de fondo y a menudo termina reforzando dinámicas de radicalización, martirio o sucesión por figuras aún más extremas. Esa es la paradoja central de esta guerra de precisión: técnicamente impresiona, estratégicamente no siempre funciona.

La consecuencia más importante es que el tiempo de la guerra se comprime. Si antes detectar, validar y atacar un objetivo exigía procesos relativamente lentos, ahora la inteligencia artificial promete reducir todo eso a una secuencia acelerada de ingestión de datos, correlación, recomendación y acción. El ICRC lo ha formulado con claridad: el problema ya no son solo las armas autónomas, sino el despliegue apresurado de sistemas de inteligencia artificial para apoyar la selección y el ataque de objetivos. Y SIPRI insiste en que estos sistemas de apoyo moldean el papel humano en distintas fases del ciclo de targeting y plantean lagunas regulatorias muy serias. Dicho de otro modo: la decisión final puede seguir siendo humana, pero el entorno en el que se toma esa decisión está cada vez más preconfigurado por máquinas.

Eso tiene efectos políticos evidentes. Una vez que los dirigentes entienden que pueden convertirse en objetivos personales en cualquier momento, la tentación será blindarse, ocultarse, desconectarse y delegar en círculos cada vez más reducidos y opacos. No necesariamente se consigue más disuasión: muchas veces se consigue más paranoia. Y la paranoia, en política y en guerra, rara vez conduce a la moderación. Brookings advierte precisamente de los riesgos de crisis militares aceleradas por inteligencia artificial y de la necesidad urgente de mecanismos de gobernanza que reduzcan la probabilidad de daño a civiles y de escaladas difíciles de controlar. Cuanto más rápido se mueve el sistema, menos espacio queda para la duda, la comprobación y la responsabilidad.

Y hay una segunda consecuencia, quizá todavía más importante: la proliferación. Hoy estas campañas parecen asociadas a actores con ecosistemas de inteligencia, superioridad aérea, acceso privilegiado a satélites, nube y analítica avanzada como los Estados Unidos e Israel. Pero la tecnología que las hace posibles es, en gran medida, comercial, modular y cada vez más accesible, por lo que la simple dinámica de difusión tecnológica nos lleva a que la ventaja no permanezca mucho tiempo en manos de unos pocos. La normalización de esta forma de guerra puede empujar al mundo hacia un escenario en el que cada vez más Estados, y eventualmente actores no estatales como grupos terroristas, intenten convertir a las personas en coordenadas y a las coordenadas en blancos.

Bajo los lucrativos contratos con gobiernos de las compañías tecnológicas subyace una lógica muy fácil de entender de utilización cada vez más habitual de armas cada vez más capaces de eliminar a personas, de decapitar regímenes y de convertir el magnicidio en un simple tiro al blanco. Y cuando eso ocurra, la guerra dejará definitivamente de ser una disputa por el territorio para convertirse en una cacería sistemática de identidades. Ese es el verdadero salto histórico que tenemos delante.


This article is openly available in English on Medium, «AI is changing who is targeted in war, and how»

8 comentarios

  • #001
    Orlando - 20 marzo 2026 - 13:09

    Agregaría el tema de la disuasión nuclear:
    Si, como anotas, estos modelos son cada vez más obicuos, y la paranoia se hace común, el que un régimen o persona se sienta tentada a usar su arsenal nuclear para reaccionar se hará cada vez más posible. Destruir sin medir consecuencias.

    Realmente son tiempos peligrosos los actuales y el sistema, cómo siempre, adormece con breaking news, para que no haya tiempo de razonar.

    Gracias profesor EDans por las luces, as usual!

    Responder
  • #002
    Benji - 20 marzo 2026 - 13:29

    Otro perro con el mismo collar. La guerra siempre ha sido, es, y será un negocio lucrativo. Estoy seguro que la familia Trump y la de Netanyahu compraron acciones de petroleras días antes del ataque.

    Cuando el poder tiene acceso a un exceso de información y encima toman decisiones sesgadas por sus propios intereses con esa información, tenemos el cóctel perfecto.

    A Trump lo han intentado matar varias veces ya (no lo justifico) pero habrá disparado la paranoia del hombre hasta el máximo y de esa siembra, esta cosecha. Intuye que no tiene nada que perder, así que va a por Venezuela, Irán, Groenlandia, Cuba y si sigue con mayoría (o no) a por México. Y con o sin aliados, a quien ni contempla, ni respeta ni tolera.

    Nada nuevo en el imperialismo americano, por cierto. Pero ahora con la careta descubierta.

    No me extrañaría que Sánchez necesite protección cuando salga de la presidencia. Si además de todo lo demás es un ser vengativo, puede que peligre su integridad física.

    Responder
  • #004
    f3r - 20 marzo 2026 - 14:39

    ¿sabes lo más «entretenido» de todo?
    Que tu banco está cogiendo tu dinero para invertir en esa empresa de satanás
    https://elpais.com/economia/2026-03-20/el-mapa-del-dinero-europeo-en-palantir-gestoras-y-bancos-disparan-sus-inversiones-en-la-controvertida-empresa-tecnologica.html

    Responder
  • #005
    Xaquín - 20 marzo 2026 - 15:29

    El ISIS e Israel definen el cambio de paradigma bélico, desde las clásicas guerrillas había que exponerse a capturar al jefe enemigo, luego se le corta el pescuezo con más o menos parafernalia.

    Hasta había que ser kamikaze, para volar las torres gemelas, ahora todo se simplifica. Basta con ser un buen funcionario (con el cerebro bien lavado)

    Ahora se decide digitalmente a quién hay que eliminar, sea dirigente o una simple escuela, y luego se manda al dron o al virus virtual correspondiente. Eso sí ,se escoge con precisión el momento histórico que más daño puede hacer al enemigo. Por ejemplo con Hamás, alimentado por el Mossad y luego no intervenido, cuando convenía provocar una invasión.

    A la vejez viruelas. Y al Poder lamerle bien el culo.

    Responder
  • #006
    Antonio Gregorio Montes - 20 marzo 2026 - 21:21

    Creo que la palabra clave es ‘cacería’. Pasamos de la guerra a la eliminación del que piensa diferente, actúa diferente o simplemente se interpone en nuestro (en ‘su’) camino, facilitado el paso por la IA ahora y muy pronto por robots autónomos. Y claro, además, todo con la posibilidad de errores sin evaluar.

    Responder
  • #007
    D.M.G. - 21 marzo 2026 - 09:28

    El hueco que deja el artículo, que lo sugiere pero no lo desarrolla porque hay un gran vacío de fondo, es brutalmente difícil: ¿puede el derecho internacional humanitario, concebido en una lógica de conflictos entre Estados con frentes más o menos identificables, sobrevivir a un modelo de guerra donde el targeting es individual, algorítmico, veloz y progresivamente accesible a actores no estatales?

    El principio de distinción entre combatientes y civiles asume que esa distinción es identificable. Cuando el sistema que decide quién es combatiente trabaja con inferencias estadísticas y datos defectuosos, como documentó HRW con Lavender, el principio no desaparece formalmente pero se vacía de contenido práctico.

    Luego está el problema de la responsabilidad, que también se complica enormemente. Si la decisión final es humana pero el entorno decisional está preconfigurado por una máquina, ¿dónde se localiza la responsabilidad jurídica? Es un campo que desconozco, pero me parece que los marcos actuales no tienen una respuesta clara, y eso es un debate cada vez más urgente (una Convención de Ginebra Digital).

    Por último, está la cuestión de la soberanía. Cuando la infraestructura que hace posible la guerra es comercial y transnacional, Microsoft, Google, Amazon, ¿qué obligaciones tienen esas empresas bajo el derecho internacional?

    La responsabilidad, no por la decisión, sino por el diseño del entorno decisional, conecta con lo que en filosofía jurídica se llama a veces «responsibility gap». Hay un paper de Robert Sparrow de 2007 que acuñó ese término para robots autónomos, pero nadie lo ha desarrollado sistemáticamente para el caso de sistemas de apoyo al targeting que siguen teniendo operador humano…

    Sinceramente, comparto todo lo vertido aquí, es un panorama realmente desolador e inquietante. Por lo que he leído, actualmente hay un bloque de países (liderado por Austria, Nueva Zelanda y varios países del Sur Global) que presionan por un Tratado Vinculante que prohíba las armas totalmente autónomas. En el otro lado, las grandes potencias (EE. UU., China, Rusia, Israel) prefieren «guías de buenas prácticas» no vinculantes, argumentando que la IA permite, en teoría, ser más precisos y evitar «daños colaterales»…

    Responder
    • Dedo-en-la-llaga - 21 marzo 2026 - 19:58

      Lo de los daños colaterales, eso se lo cuentas a las últimas ciento y pico niñas en el colegio en Irán y a sus familias. Tú vete y cuéntaselo, verás qué risa más grande.

      Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.