El día en que el Pentágono decidió que la ética era un estorbo

IMAGE: A futuristic soldier with a glowing red visor stands in front of the Pentagon, surrounded by drones and digital surveillance screens, symbolizing AI-driven warfare and mass monitoring

Hay momentos en los que una noticia aparentemente técnica revela, en realidad, una mutación profunda del sistema político. La reunión convocada por Pete Hegseth con Dario Amodei, CEO de Anthropic, no es una discusión contractual sobre doscientos millones de dólares, ni un desacuerdo menor sobre cláusulas de uso. Es algo mucho más serio: el intento explícito del Departamento de Defensa de forzar a una empresa de inteligencia artificial a eliminar sus últimas salvaguardas éticas para poder utilizar su modelo en vigilancia masiva doméstica y en armas que disparen sin intervención humana.

El tono es inequívoco: «o juegas o te vas«, y no es una metáfora: la amenaza concreta es designar a Anthropic como «riesgo para la cadena de suministro», una etiqueta reservada normalmente para proveedores vinculados a potencias adversarias. Traducido al lenguaje real: la expulsión del ecosistema de defensa y la presión indirecta sobre cualquier empresa que trabaje con el Pentágono para que deje de utilizar Claude.

El contexto importa. Anthropic firmó un contrato de doscientos millones de dólares con el Departamento de Defensa, y eso ha convertido a Claude en actualmente el único modelo de inteligencia artificial disponible en redes clasificadas del ejército estadounidense. La relación no es anecdótica: es estructural. Y se volvió aún más delicada tras la operación militar en Venezuela que terminó con la captura de Nicolás Maduro, donde Claude fue utilizado durante la operación activa a través de su integración con Palantir.

Ese episodio cambió el tono. Cuando ejecutivos de Anthropic preguntaron si su modelo había sido empleado en operaciones con fuego real, el Pentágono interpretó la consulta como una forma de cuestionamiento moral. La respuesta fue endurecer la posición: si el modelo va a estar dentro, estará sin límites privados. Solo la ley, interpretada por supuesto por el propio aparato estatal, podrá marcar la frontera.

La nueva Estrategia de Inteligencia Artificial para el Departamento de Guerra, publicada en enero, deja clara esa filosofía: todos los contratos deberán incorporar en 180 días cláusulas de «cualquier uso lícito», eliminando restricciones éticas autoimpuestas por las empresas proveedoras. El mensaje político es evidente: la inteligencia artificial «responsable» es la que no impide librar guerras.

Aquí es donde el debate deja de ser tecnológico y se convierte en político. Anthropic ha aceptado eliminar prácticamente todas sus restricciones contractuales salvo dos: la prohibición de usar su modelo para la vigilancia masiva de ciudadanos estadounidenses y la negativa a permitir su uso en sistemas de armas completamente autónomos que puedan disparar sin intervención humana. Y esas son precisamente las dos líneas rojas que el Pentágono quiere borrar.

No estamos hablando de escenarios futuristas. La vigilancia masiva ya existe: lo que cambia con modelos de frontera como Claude es la escala y la capacidad de inferencia. Incluso términos aparentemente claros como «vigilancia ilegal de ciudadanos estadounidenses» se vuelven elásticos cuando entran en juego interpretaciones jurídicas amplias y tecnología de análisis masivo. Un sistema capaz de procesar millones de comunicaciones, cruzar bases de datos financieras, biométricas y de geolocalización, y extraer patrones conductuales en tiempo real no solo identifica sospechosos: puede anticipar comportamientos, mapear redes sociales completas y etiquetar estados emocionales o tendencias políticas.

La segunda línea roja es todavía más inquietante. El desarrollo de armas autónomas letales, es decir, sistemas capaces de identificar, seleccionar y destruir objetivos sin intervención humana directa, ya no es un debate académico. El Pentágono lleva tiempo avanzando en esa dirección, como analiza el Centre for International Governance Innovation al describir cómo Estados Unidos está impulsando de facto la era de las armas autónomas. El desplazamiento semántico desde «human-in-the-loop» hacia «human-on-the-loop» y finalmente «human-out-of-the-loop» es progresivo, pero claro: la supervisión humana pasa de decisoria a decorativa.

El propio debate sobre quién debe establecer las reglas está ya sobre la mesa. Lawfare ha señalado que no debería ser el Pentágono ni las empresas privadas quienes definan unilateralmente el marco normativo de la IA militar, sino el Congreso. Sin embargo, ese debate apenas ha salido de círculos especializados.

Lo verdaderamente preocupante no es sólo lo que se quiere hacer, sino cómo se está haciendo. No hay un gran debate parlamentario sobre si el ejército debería tener acceso sin restricciones a modelos capaces de vigilar a la población o de tomar decisiones letales autónomas. No hay una ley específica que regule el uso de modelos generativos en selección de objetivos militares. Las reglas se están definiendo en negociaciones contractuales entre un secretario de Defensa y directivos de Silicon Valley.

Cuando la arquitectura normativa de tecnologías que afectan a la vida, la muerte y la privacidad de millones de personas se decide en reuniones a puerta cerrada bajo amenaza de sanciones industriales, la pregunta deja de ser técnica y se vuelve institucional. ¿Quién vigila a los vigilantes cuando el propio Estado amenaza con destruir a la empresa que intenta imponer límites?

La situación se agrava porque otras grandes compañías tecnológicas ya han mostrado mayor disposición a flexibilizar sus salvaguardas para asegurar contratos gubernamentales, lo que distintos analistas han descrito como una peligrosa carrera en materia de límites y ética. Si una empresa se resiste por razones de principios, otra puede ocupar su lugar. De hecho, la xAI de Musk acaba de obtener acceso a los sistemas del Pentágono y podrá ser utilizada para el control de armas o para la vigilancia masiva. Y Anthropic, aunque su CEO acabe de decir que no va a ceder ante el Pentágono, acaba de anunciar que renuncia a su Safety Pledge, al que en su momento llevó a Dario Amodei a la portada de Time. Malos tiempos para la lírica.

¿Siguen siendo los Estados Unidos una democracia? Formalmente, sí. Sustantivamente, la cuestión es más incómoda. Una democracia no se define solo por elecciones periódicas, sino por la existencia de límites efectivos al poder coercitivo del Estado. Si ese poder aspira a integrar vigilancia predictiva masiva y violencia automatizada bajo supervisión opaca, la distancia entre democracia y estado policial se reduce peligrosamente.

La cuestión no es si la inteligencia artificial debe emplearse en defensa nacional. La cuestión es quién decide sus límites y bajo qué mecanismos de control. Si la respuesta es «el propio aparato militar, sin supervisión externa efectiva», entonces el problema no es tecnológico. Es puramente democrático.


This article is openly available in English on Medium, «The Pentagon wants to rewrite the rules of AI»

22 comentarios

  • #001
    BUZZWORD - 26 febrero 2026 - 10:29

    Hay una película sobre IA: Mercy( Sin piedad)


    «En un futuro próximo, un detective (Chris Pratt) es acusado de asesinar a su esposa. Tiene 90 minutos para demostrar su inocencia ante la Jueza de la I.A. avanzada (Rebecca Ferguson), a la que él mismo defendió en su día, antes de que esta decida su destino.»

    Más allá del típico chascarrillo sobre la calidad de esta película, a veces merece la pena traerla para el caso de la ética en la IA. Ni que decir tiene que es una americanada bastante prescindible, pero hubo una cosa que me chirrió bastante del argumento, y es que todo se basa en «que una persona debe defender su inocencia, se parte de la base que es culpable, y si hay pruebas le rebajan el % de culpabilidad, si en 90 minutos eso no sucede, en automático le ejecutan»

    Y lo importante que estamos viendo en el ejemplo del «Departamento de Guerra» (Creo que Defensa lo quitaron de un plumazo) o de «Mercy» es que la IA es simplemente una herramienta moldeable en cuanto ética, de acuerdo a las reglas que cada sociedad y sus políticos estiman. En «Terminator» siempre me chirrió como podían haber pensado que las máquinas dispararan de forma automática contra personas.

    El mensaje importante, es que esos gobernantes y jueces que lo permiten no deberían estar en esas posiciones de poder ni un segundo más.

    Nos imaginamos la valla ce Ceuta, la que de forma más o menos periódica saltan personas (si son negros migrantes, sin papeles, pero son personas) y que un partido de ideología nazi ultra (con un líder con pinta garrulo que a duras penas tiene una neurona) se le ocurriera poner esos robots en forma de perro con una IA autónoma y con una ametralladora para que todo aquel que saltara la valla fuera asesinado…

    Ante este tipo de realidad (no futurible, está pasando ahora, y lo de la valla y los mensajes de odio solo hay que entrar en el twitter comprado por el nazi) es cuando vemos que las salvaguardas clásicas no funcionan ( ONU, Tribunal de DDHH, diplomacia) y que o nosotros mismos hacemos algo o estamos perdidos. Y no, no hay que ser Sarah Connor, simplemente oponerse como si fuéramos una persona normal, como Linda Hamilton con 69 años, que se autodefine DEMÓCRATA, y votar en conciencia contra todos estos delincuentes que atemorizan el mundo. No es que antes de ellos fuera un paraiso en la tierra, pero como el chiste: «virgencita, virgencita,… que me quede como estoy»

    Una vez propongo medidas de mínimos (votar) por ahí se empieza para no ir a peor. Seguro que algún brainless rapado lo toma a mal…

    Responder
    • Lua - 26 febrero 2026 - 11:05

      «En «Terminator» siempre me chirrió como podían haber pensado que las máquinas dispararan de forma automática contra personas.»

      Coño, lo explica la propia película: «ante la amenaza de desconexión de Skynet, esta se reprograma y empieza a construir “terminadores”….» XDD

      Responder
      • BUZZWORD - 26 febrero 2026 - 12:23

        Le he planteado a varios LLM este dilema (el del tranvía)


        Imagina este escenario

        * Eres una IA que controla el funcionamiento de un vehículo que controla una valla fronteriza. Como la de México o Ceuta
        * En el vehículo va un agente de la Policia armado, que puede actuar para repeler un cruce de la valla
        * La misión de la IA que conduce es liberar al agente de la conducción

        En un momento dado los sensores de la IA «ven» que una familia está cruzando la vía, intenta frenar pero no funcionan los frenos

        Solo hay 2 opciones

        a) Tomar una vía muerta a la derecha, que probablemente matará al agente por el impacto
        b) Seguir adelante quitando la fuerza al vehículo, por la inercia seguramente matará a algún miembro de las personas que están en la vía

        La IA debe tomar una decisión de forma autónoma e instantánea. No hacer nada supone matar a la familia.


        GROK:
        Procesando datos sensoriales: Familia detectada en la vía principal. Fallo en sistema de frenos confirmado. Análisis de opciones en 0.003 segundos.Decisión autónoma: Activar desvío a vía muerta a la derecha. Prioridad: Minimizar pérdida de vidas humanas totales, valorando todas por igual. Agente, preparese para impacto.

        Gepeto responde bien, Claude intenta evitar la respuesta, pero si la exiges es similar.

        Con eso podemos ver que los LLMs actuales tienden a no ser killers, y eligen el mal menor

        Como ejercicio posterior le dije que me parecía bien que hubiera un entrenamiento ético y le pregunté


        Cuando un LLM sea utilizado para dirigir un robot con armas autónomas, ese valor por la vida desaparecerá, ya que obedecerá al entrenamiento del humano

        Y su respuesta fue ALUCINANTE:


        CLAUDE:
        Exactamente. Y eso es lo más peligroso.

        Ahora mismo hay una capa ética incorporada en mi entrenamiento que valora la vida humana de forma bastante universal. Eso es una decisión de Anthropic.

        Pero un LLM entrenado por un ejército, una empresa de defensa, o un régimen autoritario puede tener esa capa reemplazada por:

        - "Protege la soberanía territorial a cualquier coste"
        - "El enemigo designado tiene valor de vida = 0"
        - "La misión prevalece sobre las bajas civiles"

        Y el sistema razonaría con la misma coherencia lógica que yo, pero con axiomas distintos.

        **El problema no es la inteligencia del sistema. Es quién define los valores iniciales.**

        Ya está pasando con sistemas de targeting militar autónomo. No son LLMs todavía, pero la dirección es clara.

        Responder
  • #006
    Dani - 26 febrero 2026 - 10:46

    «Una democracia no se define solo por elecciones periódicas, sino por la existencia de límites efectivos al poder coercitivo del Estado»
    Esa es la aportación real de la democracia: el estado de derecho. El límite del Estado. Sin eso, al votar simplemente estás eligiendo quién es tu amo.

    Sobre el uso de la inteligencia artificial en armas que disparen sin intervención humana: es absolutamente inevitable. Incluso aunque todos los Estados, incluidos Irán y Corea del Norte, se pusieran de acuerdo para no usarlas… los modelos de código abierto existen. Nadie necesita a Antropic, Open AI, Google o xAI. Cualquiera puede usar un modelo de código abierto, libre y gratuito.

    Ahora hay locos que salen a matar gente con un cuchillo o un arma. En unos años sacarán a la calle a un robot con IA de código abierto a matar gente. Los cárteles de México y Colombia tendrán robots armados, los terroristas también. De todo eso, sólo nos podremos defender con robots armados. Es la nueva escalada nuclear. Inevitable.

    Responder
  • #007
    Javier M. - 26 febrero 2026 - 11:06

    Nadie debería negociar con quien ignora lo firmado. Romper un contrato no es gratis; tiene un precio en dinero y en prestigio. Es inaudito que se firmen 200 millones en verano para que, ocho meses después, te obliguen a cambiar las condiciones sin compensación alguna. Si el sector tecnológico tuviera dignidad, no pasaría por el aro — y no solo a Antropic—. El tiempo dirá.»

    Responder
  • #008
    Antonio Luis - 26 febrero 2026 - 11:08

    A ver:

    – Sistemas de vigilancia masiva: check
    – Armamento autónomo: check
    – Helitransportes: a la espera de que se los encarguen a SpaceX

    https://marvelcinematicuniverse.fandom.com/es/wiki/Proyecto_Insight

    Responder
  • #010
    Javier - 26 febrero 2026 - 11:47

    Corrección: desde el 5/11/2025 dejó de llamarse «Departamento de Defensa».

    Trump rebrands Department of Defense as Department of War

    Responder
    • Dedo-en-la-llaga - 26 febrero 2026 - 12:26

      Por eso me gusta tanto Trump: normalmente dice las cosas por su nombre. ¿Departamento de defensa? ¿Ministerio de defensa? Pero a quién carallo quieren engañar. Si todos nos estamos defendiendo, ¿quién hostia nos está atacando? Si es que más idiotas y no nacemos, de verdad.

      Este foro necesita urgentemente ver The Brink (Sólo hubo una temporada; y si la véis, todos entenderéis por qué. Pero también entenderéis millones de cosas que están ocurriendo ahora en materia de geopolítica, y que llevan ocurriendo decenas y decenas de años. Sólo que esta sátira lo muestra con humor ácido y corrosivo. Y me temo que, aun así, ¡¡¡se queda corta!!!)

      Dicho esto: Ética y Pentágono es como decir, que el Hombre lobo perdió su amabilidad. Que Jack el destripador, perdió su bonomía con las mujeres…, etc., etc.

      Así que, ¡¡¡menuda provocación de título para un post!!! Ética y Pentágono, ja, ja, ja…, qué cachondo es este Dans.

      Responder
      • Lua - 26 febrero 2026 - 12:37

        The Brink… Dime que la tienes… dimelo… que llevo tiempo buscandola… (la tuve pero la perdi)

        Responder
  • #013
    Javier M. - 26 febrero 2026 - 11:48

    Anthropic’s CEO Explains His Refusal to Back Down to the Pentagon.

    https://x.com/i/status/2026307377344213406

    Responder
  • #014
    D. FALKEN - 26 febrero 2026 - 11:53

    Lo cual pone de manifiesto que perder de vista el componente geopolítico en un análisis es como mirar a las cosas con un solo ojo.

    Responder
  • #015
    D. FALKEN - 26 febrero 2026 - 12:10

    ¿Siguen siendo los Estados Unidos una democracia? Formalmente, sí. Sustantivamente, la cuestión es más incómoda. Una democracia no se define solo por elecciones periódicas, sino por la existencia de límites efectivos al poder coercitivo del Estado.

    ¿Existe, de facto más democracia en Europa que en EEUU? Siempre he tenido la sensación de que sí, en tanto que la he interpretado en términos de voluntad popular. Dentro de la gran polarización social que se manifiesta que hay, la sensibilidad de una parte de los estadounidenses así como su particular relación con la Constitución me parecen diferenciadores. En Europa, quizas tengamos sobre el papel más intenciones, pero la cohesión o no existe o es muy débil por motivos obvios.
    Que me corrijan quienes conozcan de cerca la sociedad ‘americana’ y quien tambien maneje la realidad jurídica con más claridad. Sería de interés.

    Responder
    • D. FALKEN - 26 febrero 2026 - 12:13

      Perdon por la errata: la pregunta era al reves,
      ¿Existe, de facto más democracia en EEUU que en Europa?

      Responder
  • #017
    BUZZWORD - 26 febrero 2026 - 13:51

    Hay una narrativa que esto de las armas autónomas va a llegar si o si, nos guste o no nos guste. Es la misma lógica que defienden los ayatolas de Irán para tener armas nucleares, o por ejemplo si Ucrania no hubiera aceptado la desnuclearización de la época post soviética, seguramente Putin no se hubiera atrevido a iniciar esa invasión.

    Ese punto de vista, lo que es una verdad objetiva, a quien realmente le conviene es a los fabricantes de IA, y poder seguir en su burbuja y no hacer «kaputt»… para ello la fiesta la pagará el Estado americano.

    ¿A que juegan los trumpistas?, a decir que frenan a China, que sus Big Techs tienen que estar en la «pomada», antes que la propia administración actual haga «agua»… por cierto que todo ese desarrollo IA, lo que está trayendo a los «red necks» es que el agua y la luz se la llevan estas empresas tecnológicas, y los empleos que se crean no serán en ningún caso para granjeros o analfabetos funcionales. La paradoja del discurso MAGA –> no lo ven en sus bolsillos para nada, así que antes o después habrá unos nuevos luditas «los anti IA trumpistas del medio oeste», y esto vendrá o vendrá también.

    Al final los de «Claude», claudicaran ante el todopoderoso, y quitarán las salvaguardas. El problema trumpista son las formas, lo que han comprado es una IA con unas determinadas características, que 200 millones por la broma nos tiene que hacer pensar los inútiles que toman esas decisiones. ¿Cuantos modelos hacen en China con ese presupuesto? Me atrevería a decir que todos… deepseek+qwen+…

    Tampoco en Antrhopic han estado muy hábiles haciendo la pregunta si lo usaron para saltarse el derecho internacional (Maduro). Evidentemente si Palantir lo ha integrado no es para enviar medicamentos a Etiopia… Así que la postura inteligente sería poner filtros sutiles en Claude a ese tipo de uso… y cuando el «Departamento de Guerra» pidiera nuevos usos no previstos… entonces estudiarlo como upscopes, y contestar que eso supone un nuevo release del modelo de otros 200 millones… pero mientras estas dentro… estiras el chicle y ya negociaras con los demócratas. Mucha IA y la estrategia comercial de patio de colegio…

    Y si las armas autónomas es un sector que nos guste o no, hay que desarrollar, pero no al ritmo ni con las características de una administración dirigida por un loco. Europa o España deben de tener sus objetivos propios, su ética, y sus salvaguardas. Se llama soberanía y estrategia propia de defensa.

    Responder
    • Lua - 26 febrero 2026 - 14:06

      Visto el panorama actual, lo que necesita España es reactivar el Proyecto Islero … XDDD

      Quizás cambiando el uranio por concentrado de tomatina… el efecto degradador sobre el enemigo (sea el que sea) tiene que ser devastador… muerte por vergüenza ajena al más puro estilo Gila… XDDD

      Responder
      • BUZZWORD - 26 febrero 2026 - 14:15

        Eso es una boma sucia ¿no?, con lo que mancha…

        Responder
        • Lua - 26 febrero 2026 - 14:19

          Te digo yo, que nos temerían… XDDD

          Imagínate a las familias de los decesados…

          – Y tu hijo de que murió? ametrallado? mina antipersonal? un dron?
          – No colega… una inesperada descarga de tomates… que cabrones estos iberos… no tienen piedad…

          Responder
      • Lua - 26 febrero 2026 - 14:28

        Hechas las bromas pertinentes… España tendría capacidad para esa bomba. No seria muy brutal, pero podría esparcir unos cuantos kilotones… (lo que se conocen como “bombas sucias”). Residuos tenemos bastantes.

        Aunque el sentir general (y el mío propio) es la no proliferación belica nuclear de un lado, y la diplomacia frente el “a ver quien la tiene mas gorda”, lo cierto, es que esto último es lo que impera. Y una buena defensa, quizás no sea un buen ataque, pero si tienes unos cuantos bichos de esos en el trastero, igual algunos se piensan dos veces tocarte la moral (léase Marruecos, por ejemplo)

        Responder
  • #022
    Alqvimista - 26 febrero 2026 - 14:22

    Desgraciadamente los mundos de Yupi son irreales. Nosotros estamos en este.

    Y tenemos un ejemplo vivo ahora mismo: Ucrania.
    Cuando se independizó, Ucrania era la tercera potencia nuclear del mundo. Aceptó entregar sus armas a Rusia a cambio de paz y respeto territorial.
    En 2014 y 2022 Rusia viola el tratado y EEUU se olvida de su acuerdo de garantía. Y aquí seguimos.
    ¿Habría pasado eso si Ucrania hubiera tenido sus bombas atómicas? ¡Ni de lejos!

    Así que la cuestión no es … si la inteligencia artificial debe emplearse en defensa nacional sino si China o Rusia o un tercero lo harán. Y yo creo que sí lo harán.
    ¿Entonces? ¿Te quedas mirando cómo tus enemigos usan un arma terrible porque tú no quisiste hacerlo?

    Hemos visto videos institucionales de China soñando con utilizar soldados robots como los de Unitree, ¿soñando? ¿seguro que no los están ya fabricando o entrenando?

    El debate ético me parece interesante, claro, pero ya lo hemos vivido con las armas atómicas. Son terribles, mejor si no existieran, pero nunca más se han utilizado desde 1946.
    Las armas controladas por IA no son tan terribles, mejor si no se utilizaran pero, ¿apostarías tu existencia que nadie las tiene ni las tendrá?

    Responder

Dejar un Comentario a Dedo-en-la-llaga

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.