Durante años hemos hablado de la inteligencia artificial como una herramienta para optimizar procesos empresariales, personalizar publicidad o escribir correos más rápidos. Pero los acontecimientos recientes en Venezuela e Irán apuntan a otra dirección mucho menos cómoda: la progresiva integración de modelos comerciales de inteligencia artificial en operaciones militares reales. No como un complemento anecdótico, sino como parte del sistema nervioso de la decisión.
Un artículo reciente del Wall Street Journal, titulado «U.S. strikes in Middle East use Anthropic, hours after Trump ban”, revela que Claude, el modelo de Anthropic, fue utilizado por el U.S. Central Command para evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla, incluso horas después de que Donald Trump anunciara que el gobierno federal dejaría de trabajar con la compañía. El artículo subraya hasta qué punto estas herramientas están ya incrustadas en los flujos operativos: no son experimentos marginales, sino componentes integrados en misiones activas.
La misma información apunta a que Claude también fue empleado en la operación que culminó con la captura de Nicolás Maduro, y que su sustitución no será inmediata debido a su integración en plataformas de terceros como Palantir o AWS. Este detalle es clave. No estamos ya ante un simple «uso de un chatbot«, sino ante toda una arquitectura: modelos de lenguaje avanzados desplegados en entornos cloud certificados, integrados en plataformas de análisis masivo de datos, conectados a repositorios clasificados y a procesos de planificación operativa.
En paralelo, el debate político se ha intensificado. Según The Washington Post, Anthropic se negó a aceptar condiciones contractuales que implicaban permitir el uso de sus modelos en cualquier escenario «legal», incluyendo potencialmente armas autónomas o vigilancia masiva, lo que tensó su relación con el Pentágono. La presión del Departamento de Defensa para no limitar por contrato los usos militares de la inteligencia artificial enmarca el conflicto como un precedente sobre hasta dónde puede o debe llegar el Estado cuando incorpora modelos privados a su aparato coercitivo.
En este contexto emerge el llamativo «discombobulator«, la supuesta «arma secreta» que, según Trump, habría dejado inoperativos los sistemas de vigilancia venezolanos. Sin embargo, análisis recogidos por medios como CNN sugieren que probablemente se trate de una etiqueta grandilocuente (y absurda) para describir una combinación de capacidades ya conocidas: ciberoperaciones para degradar defensas, guerra electrónica para interferir radares y comunicaciones, y eventualmente sistemas de energía dirigida o acústicos. Más que un artefacto misterioso, el término parece funcionar como una narrativa simplificadora de un ecosistema tecnológico complejo.
Lo verdaderamente transformador no es la existencia de guerra electrónica, porque eso lleva décadas funcionando, sino su acoplamiento con inteligencia artificial generativa capaz de sintetizar enormes volúmenes de información, proponer hipótesis, construir escenarios alternativos y asistir en la priorización de objetivos. Cuando un modelo como Claude participa en la identificación de blancos o en la simulación de respuestas enemigas, no está «apretando el botón», pero sí está moldeando el espacio de decisión. Y ese es un poder sutil pero decisivo.
El discurso oficial insiste en que siempre hay «human in the loop». Pero si la información llega ya filtrada, resumida y jerarquizada por un modelo entrenado sobre correlaciones estadísticas, el margen real de deliberación puede estrecharse. El riesgo no es una inteligencia artificial autónoma disparando misiles a diestro y siniestro, sino una infraestructura algorítmica que acelera el ciclo OODA (Observar–Orientar–Decidir–Actuar) hasta un punto en el que la reflexión estratégica ya se convierte en un lujo.
En el fondo, la gran pregunta no es si existe un arma con un nombre extravagante. La pregunta es si estamos aceptando, sin deliberación democrática alguna, que el sistema nervioso de la guerra se externalice a un ecosistema de proveedores privados, modelos opacos y plataformas de integración cuyo incentivo natural es el despliegue, la dependencia y el lock-in. Y, cuando eso ocurre, la línea roja no es la autonomía total del disparo: la línea roja es mucho más temprana, y mucho más silenciosa. Es el momento en que dejamos que una máquina y la empresa que la opera participen en la construcción misma de la realidad sobre la que decidimos a quién atacar y cómo.
Y esa, más que cualquier arma con nombre estrafalario, es la verdadera historia.


Todos , gobiernos y corporaciones, tiran palante con todo, sin controles ni cortapisas, dizque por que los demas van a tirar palante con todo y no quieren quedarse atras por seguridad propia, a la vez que cada uno de ellos reconoce que hay un inmenso riesgo de tirar palante con todo si no hay controles de seguridad.
¿Que puede salir mal?
Solo algo lo suficientemente grave, pero que no nos extermine del todo puede hacer que entremos en razón, solo que para entonces quizá no haya margen de maniobra ni retorno.
Mas estúpidos que los dinosaurios. Al menos a ellos les sucedió, no lo eligieron.
Concuerdo en parte, pero tengo mis reservas: al final del día todos queremos llegar a casa y saber que los nuestros están bien antes de acostarnos para empezar otro nuevo día.
Hoy a la mañana todos nosotros pudimos disfrutar nuestro café como todos los días gracias a este hombre: Vasily Arkhipov.
Quién era Vasili Arkhipov, el hombre que salvó al mundo de una guerra nuclear
Cómo La Humanidad Casi Se Autodestruye
Stanislav Petrov, el hombre que salvó al mundo de una guerra nuclear entre la Unión Soviética y Estados Unidos
La «línea roja» que menciona el artículo ya se cruzó hace mucho tiempo, pero lo bueno es el momento en que dejamos de entender cómo llegamos a la conclusión de que alguien es un enemigo.
El «buen uso» que se está haciendo de estas herramientas es lo mismo que los divulgadores están viendo, analizando y recomendando sobre cómo usar estas súper calculadoras en el ámbito civil (educación, empresas, administración…), por lo que no debería extrañar que se esté aplicando en lo militar, multiplicado por Palantir (que también tiene sus «calculadoras»).
Por lo menos, es de «agradecer» que se insista en que se está usando con un criterio logístico-analítico del ingente volumen de datos que se maneja, lo cual muestra una preocupación por controlar la derrama del discurso apocalíptico, y que, de momento, no esté en el plano decisional autónomo (que, personalmente, no me lo creo. Los «tests» son constantes: drones, cosas de esas cuadrúpedas y no sé qué más…).
Esto sólo puede escalar (la pregunta es ¿hasta donde?): el «ese es un poder sutil pero decisivo» también lo está aplicando la parte contratante de la segunda parte con todo lo que tenga, o pueda. Por lo que, a la pregunta de «si estamos aceptando, sin deliberación democrática alguna, que el sistema nervioso de la guerra…», queda ya respondida. En lo militar, nunca se pregunta algo así: se coge, se hace, tú aquí, tú allí y, en la modernidad, y tú modera el discurso…
Nota:
Errata en «abssurda» en 5o. párrafo.
Gracias, las e-rratas son las últimas en abandonar el barco!! Corregida!
Nota:
Errata en «queda ya respondida» sería lo suyo.
Las e-rratas son una plaga…
¿Estamos creando Skynet?
Sí, todavía no es 100% autónomo, pero… ¿estamos avanzando hacia ello? ¿Llegará un momento en el que sólo tenga que tomar la decisión de dejar de obedecer a alguien y ya está, ya existe Skynet?
Viendo como se flipan y alucinan, igual hasta «ven» un peligro (estoy pensando en alguien poniendo un QR con unos códigos en una cámara que sabemos que confundirán el sistema) y apuntan en otra dirección y disparan porque ningún general puede seguirle el ritmo a la máquina.
Ya verás las risas si un hacker ruso consigue confundir una IA para que USA dispare a los traspondedores de sus propios aviones en lugar de a los enemigos.
Hay un cuento de Asimov donde acaban metiendo a matemáticos dentro de los misiles y los disparan para que calculen todo en el vuelo y no sean hackeables.
Varias reflexiones:
1. Para declarar una guerra ciertas legislaciones tienen escrito que sus asambleas deben aprobar una declaración de guerra… En el caso del ataque a Iran tampoco se pasó ese requisito. Luego algún sector llama dictador a un gobierno que sube las pensiones o el SMI por «decreto ley» y no a Trump.
Si se saltan la constitución americana, a quién le va a importar que se salte el contrato con Anthropic…
2. De todo lo malo se puede sacar algo bueno. Si algo tiene Trump es que es un bocachanclas por activa o por pasiva, y nos enteramos de cosas como la exigencia a Anthropic de plegarse a sus requisitos de defensa, y ahora que ha sido OpenAI el que tiene la ética que sus trabajadores habían solicitado en el iris de worldcoin (por si faltaba alguna constatación)
Es lo que tiene tener a «la vieja del visillo» como presidente…
3. Se nos cae un mito de la película Juegos de guerra y es teoría de que había superordenadores de defensa simulando escenarios, ahora resulta que el humilde Claude es lo que utilzan… tendríamos que haber visto más «los bingueros» y menos cine americano…
Hablando de películas a evitar
Poco a poco se va perfilando la respuesta a ¿por qué es tan importante bloquear el acceso a chips avanzados a China?
En cuanto a «si estamos aceptando, sin deliberación democrática alguna, que el sistema nervioso de la guerra se externalice a un ecosistema de proveedores privados» digo: ¿más aún? No solo los estados democráticos basamos toda nuestra producción en defensa en unas pocas empresas privadas (escasez de Thaad y Patriots, anyone?) sino que (sí, qué pesado) ya directamente no pasamos nunca por el parlamento para meternos en guerras (Ucrania: si suministras a un bando, formas parte del esfuerzo bélico, y si no que se lo cuenten ahora mismo a los estados del golfo; Irán: nadie en España imaginaba que el despliegue naval y aéreo que estaba pasando por Rota y Morón iba a dedicarse a una guerra ilegal, ¿verdad Sánchez? y ahora nos hacemos los neutrales…)
Al final se va a cagar la perra. Estos sistemas no son infalibles y son confundidos con facilidad en los prompts. Entiendo que no será tan difícil (tampoco tan fácil) hacer ingeniería inversa y confundir a esos sistemas.
Si yo tuviera que luchar como los iraníes, gazatíes o libaneses intentaría hacer QRs en la arena que puedan dar órdenes inversas a la IA y no se vean a vista de pájaro.
Otra es que si esos sistemas están vigilando todo, hacerse un «Gorki» y sabiendo que te miran, enviar muchas señales falsas. Por ejemplo, usando dobles en los coches oficiales como hacen Putin u Obiang. Y rotar a los guardaespaldas también