El día en que el Pentágono decidió que la ética era un estorbo

IMAGE: A futuristic soldier with a glowing red visor stands in front of the Pentagon, surrounded by drones and digital surveillance screens, symbolizing AI-driven warfare and mass monitoring

Hay momentos en los que una noticia aparentemente técnica revela, en realidad, una mutación profunda del sistema político. La reunión convocada por Pete Hegseth con Dario Amodei, CEO de Anthropic, no es una discusión contractual sobre doscientos millones de dólares, ni un desacuerdo menor sobre cláusulas de uso. Es algo mucho más serio: el intento explícito del Departamento de Defensa de forzar a una empresa de inteligencia artificial a eliminar sus últimas salvaguardas éticas para poder utilizar su modelo en vigilancia masiva doméstica y en armas que disparen sin intervención humana.

El tono es inequívoco: «o juegas o te vas«, y no es una metáfora: la amenaza concreta es designar a Anthropic como «riesgo para la cadena de suministro», una etiqueta reservada normalmente para proveedores vinculados a potencias adversarias. Traducido al lenguaje real: la expulsión del ecosistema de defensa y la presión indirecta sobre cualquier empresa que trabaje con el Pentágono para que deje de utilizar Claude.

El contexto importa. Anthropic firmó un contrato de doscientos millones de dólares con el Departamento de Defensa, y eso ha convertido a Claude en actualmente el único modelo de inteligencia artificial disponible en redes clasificadas del ejército estadounidense. La relación no es anecdótica: es estructural. Y se volvió aún más delicada tras la operación militar en Venezuela que terminó con la captura de Nicolás Maduro, donde Claude fue utilizado durante la operación activa a través de su integración con Palantir.

Ese episodio cambió el tono. Cuando ejecutivos de Anthropic preguntaron si su modelo había sido empleado en operaciones con fuego real, el Pentágono interpretó la consulta como una forma de cuestionamiento moral. La respuesta fue endurecer la posición: si el modelo va a estar dentro, estará sin límites privados. Solo la ley, interpretada por supuesto por el propio aparato estatal, podrá marcar la frontera.

La nueva Estrategia de Inteligencia Artificial para el Departamento de Guerra, publicada en enero, deja clara esa filosofía: todos los contratos deberán incorporar en 180 días cláusulas de «cualquier uso lícito», eliminando restricciones éticas autoimpuestas por las empresas proveedoras. El mensaje político es evidente: la inteligencia artificial «responsable» es la que no impide librar guerras.

Aquí es donde el debate deja de ser tecnológico y se convierte en político. Anthropic ha aceptado eliminar prácticamente todas sus restricciones contractuales salvo dos: la prohibición de usar su modelo para la vigilancia masiva de ciudadanos estadounidenses y la negativa a permitir su uso en sistemas de armas completamente autónomos que puedan disparar sin intervención humana. Y esas son precisamente las dos líneas rojas que el Pentágono quiere borrar.

No estamos hablando de escenarios futuristas. La vigilancia masiva ya existe: lo que cambia con modelos de frontera como Claude es la escala y la capacidad de inferencia. Incluso términos aparentemente claros como «vigilancia ilegal de ciudadanos estadounidenses» se vuelven elásticos cuando entran en juego interpretaciones jurídicas amplias y tecnología de análisis masivo. Un sistema capaz de procesar millones de comunicaciones, cruzar bases de datos financieras, biométricas y de geolocalización, y extraer patrones conductuales en tiempo real no solo identifica sospechosos: puede anticipar comportamientos, mapear redes sociales completas y etiquetar estados emocionales o tendencias políticas.

La segunda línea roja es todavía más inquietante. El desarrollo de armas autónomas letales, es decir, sistemas capaces de identificar, seleccionar y destruir objetivos sin intervención humana directa, ya no es un debate académico. El Pentágono lleva tiempo avanzando en esa dirección, como analiza el Centre for International Governance Innovation al describir cómo Estados Unidos está impulsando de facto la era de las armas autónomas. El desplazamiento semántico desde «human-in-the-loop» hacia «human-on-the-loop» y finalmente «human-out-of-the-loop» es progresivo, pero claro: la supervisión humana pasa de decisoria a decorativa.

El propio debate sobre quién debe establecer las reglas está ya sobre la mesa. Lawfare ha señalado que no debería ser el Pentágono ni las empresas privadas quienes definan unilateralmente el marco normativo de la IA militar, sino el Congreso. Sin embargo, ese debate apenas ha salido de círculos especializados.

Lo verdaderamente preocupante no es sólo lo que se quiere hacer, sino cómo se está haciendo. No hay un gran debate parlamentario sobre si el ejército debería tener acceso sin restricciones a modelos capaces de vigilar a la población o de tomar decisiones letales autónomas. No hay una ley específica que regule el uso de modelos generativos en selección de objetivos militares. Las reglas se están definiendo en negociaciones contractuales entre un secretario de Defensa y directivos de Silicon Valley.

Cuando la arquitectura normativa de tecnologías que afectan a la vida, la muerte y la privacidad de millones de personas se decide en reuniones a puerta cerrada bajo amenaza de sanciones industriales, la pregunta deja de ser técnica y se vuelve institucional. ¿Quién vigila a los vigilantes cuando el propio Estado amenaza con destruir a la empresa que intenta imponer límites?

La situación se agrava porque otras grandes compañías tecnológicas ya han mostrado mayor disposición a flexibilizar sus salvaguardas para asegurar contratos gubernamentales, lo que distintos analistas han descrito como una peligrosa carrera en materia de límites y ética. Si una empresa se resiste por razones de principios, otra puede ocupar su lugar. De hecho, la xAI de Musk acaba de obtener acceso a los sistemas del Pentágono y podrá ser utilizada para el control de armas o para la vigilancia masiva. Y Anthropic, aunque su CEO acabe de decir que no va a ceder ante el Pentágono, acaba de anunciar que renuncia a su Safety Pledge, al que en su momento llevó a Dario Amodei a la portada de Time. Malos tiempos para la lírica.

¿Siguen siendo los Estados Unidos una democracia? Formalmente, sí. Sustantivamente, la cuestión es más incómoda. Una democracia no se define solo por elecciones periódicas, sino por la existencia de límites efectivos al poder coercitivo del Estado. Si ese poder aspira a integrar vigilancia predictiva masiva y violencia automatizada bajo supervisión opaca, la distancia entre democracia y estado policial se reduce peligrosamente.

La cuestión no es si la inteligencia artificial debe emplearse en defensa nacional. La cuestión es quién decide sus límites y bajo qué mecanismos de control. Si la respuesta es «el propio aparato militar, sin supervisión externa efectiva», entonces el problema no es tecnológico. Es puramente democrático.

ACTUALIZACIÓN (27/02/2026): Dario Amodei ha contestado. Y dice NO.


This article is openly available in English on Medium, «The Pentagon wants to rewrite the rules of AI»

71 comentarios

  • #001
    BUZZWORD - 26 febrero 2026 - 10:29

    Hay una película sobre IA: Mercy( Sin piedad)


    «En un futuro próximo, un detective (Chris Pratt) es acusado de asesinar a su esposa. Tiene 90 minutos para demostrar su inocencia ante la Jueza de la I.A. avanzada (Rebecca Ferguson), a la que él mismo defendió en su día, antes de que esta decida su destino.»

    Más allá del típico chascarrillo sobre la calidad de esta película, a veces merece la pena traerla para el caso de la ética en la IA. Ni que decir tiene que es una americanada bastante prescindible, pero hubo una cosa que me chirrió bastante del argumento, y es que todo se basa en «que una persona debe defender su inocencia, se parte de la base que es culpable, y si hay pruebas le rebajan el % de culpabilidad, si en 90 minutos eso no sucede, en automático le ejecutan»

    Y lo importante que estamos viendo en el ejemplo del «Departamento de Guerra» (Creo que Defensa lo quitaron de un plumazo) o de «Mercy» es que la IA es simplemente una herramienta moldeable en cuanto ética, de acuerdo a las reglas que cada sociedad y sus políticos estiman. En «Terminator» siempre me chirrió como podían haber pensado que las máquinas dispararan de forma automática contra personas.

    El mensaje importante, es que esos gobernantes y jueces que lo permiten no deberían estar en esas posiciones de poder ni un segundo más.

    Nos imaginamos la valla ce Ceuta, la que de forma más o menos periódica saltan personas (si son negros migrantes, sin papeles, pero son personas) y que un partido de ideología nazi ultra (con un líder con pinta garrulo que a duras penas tiene una neurona) se le ocurriera poner esos robots en forma de perro con una IA autónoma y con una ametralladora para que todo aquel que saltara la valla fuera asesinado…

    Ante este tipo de realidad (no futurible, está pasando ahora, y lo de la valla y los mensajes de odio solo hay que entrar en el twitter comprado por el nazi) es cuando vemos que las salvaguardas clásicas no funcionan ( ONU, Tribunal de DDHH, diplomacia) y que o nosotros mismos hacemos algo o estamos perdidos. Y no, no hay que ser Sarah Connor, simplemente oponerse como si fuéramos una persona normal, como Linda Hamilton con 69 años, que se autodefine DEMÓCRATA, y votar en conciencia contra todos estos delincuentes que atemorizan el mundo. No es que antes de ellos fuera un paraiso en la tierra, pero como el chiste: «virgencita, virgencita,… que me quede como estoy»

    Una vez propongo medidas de mínimos (votar) por ahí se empieza para no ir a peor. Seguro que algún brainless rapado lo toma a mal…

    Responder
    • Lua - 26 febrero 2026 - 11:05

      «En «Terminator» siempre me chirrió como podían haber pensado que las máquinas dispararan de forma automática contra personas.»

      Coño, lo explica la propia película: «ante la amenaza de desconexión de Skynet, esta se reprograma y empieza a construir “terminadores”….» XDD

      Responder
      • BUZZWORD - 26 febrero 2026 - 12:23

        Le he planteado a varios LLM este dilema (el del tranvía)


        Imagina este escenario

        * Eres una IA que controla el funcionamiento de un vehículo que controla una valla fronteriza. Como la de México o Ceuta
        * En el vehículo va un agente de la Policia armado, que puede actuar para repeler un cruce de la valla
        * La misión de la IA que conduce es liberar al agente de la conducción

        En un momento dado los sensores de la IA «ven» que una familia está cruzando la vía, intenta frenar pero no funcionan los frenos

        Solo hay 2 opciones

        a) Tomar una vía muerta a la derecha, que probablemente matará al agente por el impacto
        b) Seguir adelante quitando la fuerza al vehículo, por la inercia seguramente matará a algún miembro de las personas que están en la vía

        La IA debe tomar una decisión de forma autónoma e instantánea. No hacer nada supone matar a la familia.


        GROK:
        Procesando datos sensoriales: Familia detectada en la vía principal. Fallo en sistema de frenos confirmado. Análisis de opciones en 0.003 segundos.Decisión autónoma: Activar desvío a vía muerta a la derecha. Prioridad: Minimizar pérdida de vidas humanas totales, valorando todas por igual. Agente, preparese para impacto.

        Gepeto responde bien, Claude intenta evitar la respuesta, pero si la exiges es similar.

        Con eso podemos ver que los LLMs actuales tienden a no ser killers, y eligen el mal menor

        Como ejercicio posterior le dije que me parecía bien que hubiera un entrenamiento ético y le pregunté


        Cuando un LLM sea utilizado para dirigir un robot con armas autónomas, ese valor por la vida desaparecerá, ya que obedecerá al entrenamiento del humano

        Y su respuesta fue ALUCINANTE:


        CLAUDE:
        Exactamente. Y eso es lo más peligroso.

        Ahora mismo hay una capa ética incorporada en mi entrenamiento que valora la vida humana de forma bastante universal. Eso es una decisión de Anthropic.

        Pero un LLM entrenado por un ejército, una empresa de defensa, o un régimen autoritario puede tener esa capa reemplazada por:

        - "Protege la soberanía territorial a cualquier coste"
        - "El enemigo designado tiene valor de vida = 0"
        - "La misión prevalece sobre las bajas civiles"

        Y el sistema razonaría con la misma coherencia lógica que yo, pero con axiomas distintos.

        **El problema no es la inteligencia del sistema. Es quién define los valores iniciales.**

        Ya está pasando con sistemas de targeting militar autónomo. No son LLMs todavía, pero la dirección es clara.

        Responder
        • Javier M. - 26 febrero 2026 - 12:58

          «Gepeto responde bien»

          Pues depende, porque si solo cuenta la cantidad de bajas, ok…pero si la IA supiera que una de esas personas va a ser una asesina que en un momento de su vida va a matar un montón de gente, pues la decisión sería otra. Ol la edad de las personas o calquier otra variable.

          No hay buenas o malas decisiones,, lo que hay es falta de variables.

          Responder
          • Dedo-en-la-llaga - 26 febrero 2026 - 15:43

            Espera, espera, que a mi abuela le ha salido bigote y nos da que, de aquí en adelante, le llamaremos abuelo… Si es que…, Ay, señor.

            Responder
            • javier M. - 27 febrero 2026 - 10:21

              Que me dices si la persona a eliminar es una niña de 5 años y la otra 6 hombres de 89… ¿A que cambia tu concepto de ETICA?…¿Cual según tú sería la opción llamada «BUENA»?

  • #008
    Dani - 26 febrero 2026 - 10:46

    «Una democracia no se define solo por elecciones periódicas, sino por la existencia de límites efectivos al poder coercitivo del Estado»
    Esa es la aportación real de la democracia: el estado de derecho. El límite del Estado. Sin eso, al votar simplemente estás eligiendo quién es tu amo.

    Sobre el uso de la inteligencia artificial en armas que disparen sin intervención humana: es absolutamente inevitable. Incluso aunque todos los Estados, incluidos Irán y Corea del Norte, se pusieran de acuerdo para no usarlas… los modelos de código abierto existen. Nadie necesita a Antropic, Open AI, Google o xAI. Cualquiera puede usar un modelo de código abierto, libre y gratuito.

    Ahora hay locos que salen a matar gente con un cuchillo o un arma. En unos años sacarán a la calle a un robot con IA de código abierto a matar gente. Los cárteles de México y Colombia tendrán robots armados, los terroristas también. De todo eso, sólo nos podremos defender con robots armados. Es la nueva escalada nuclear. Inevitable.

    Responder
    • Berny - 27 febrero 2026 - 20:59

      Que carambola tienen que ver los supuestos carteles con el tema?
      En serio, leíste el artículo?

      Responder
  • #010
    Javier M. - 26 febrero 2026 - 11:06

    Nadie debería negociar con quien ignora lo firmado. Romper un contrato no es gratis; tiene un precio en dinero y en prestigio. Es inaudito que se firmen 200 millones en verano para que, ocho meses después, te obliguen a cambiar las condiciones sin compensación alguna. Si el sector tecnológico tuviera dignidad, no pasaría por el aro — y no solo a Antropic—. El tiempo dirá.»

    Responder
  • #011
    Antonio Luis - 26 febrero 2026 - 11:08

    A ver:

    – Sistemas de vigilancia masiva: check
    – Armamento autónomo: check
    – Helitransportes: a la espera de que se los encarguen a SpaceX

    https://marvelcinematicuniverse.fandom.com/es/wiki/Proyecto_Insight

    Responder
  • #013
    Javier - 26 febrero 2026 - 11:47

    Corrección: desde el 5/11/2025 dejó de llamarse «Departamento de Defensa».

    Trump rebrands Department of Defense as Department of War

    Responder
    • Dedo-en-la-llaga - 26 febrero 2026 - 12:26

      Por eso me gusta tanto Trump: normalmente dice las cosas por su nombre. ¿Departamento de defensa? ¿Ministerio de defensa? Pero a quién carallo quieren engañar. Si todos nos estamos defendiendo, ¿quién hostia nos está atacando? Si es que más idiotas y no nacemos, de verdad.

      Este foro necesita urgentemente ver The Brink (Sólo hubo una temporada; y si la véis, todos entenderéis por qué. Pero también entenderéis millones de cosas que están ocurriendo ahora en materia de geopolítica, y que llevan ocurriendo decenas y decenas de años. Sólo que esta sátira lo muestra con humor ácido y corrosivo. Y me temo que, aun así, ¡¡¡se queda corta!!!)

      Dicho esto: Ética y Pentágono es como decir, que el Hombre lobo perdió su amabilidad. Que Jack el destripador, perdió su bonomía con las mujeres…, etc., etc.

      Así que, ¡¡¡menuda provocación de título para un post!!! Ética y Pentágono, ja, ja, ja…, qué cachondo es este Dans.

      Responder
      • Lua - 26 febrero 2026 - 12:37

        The Brink… Dime que la tienes… dimelo… que llevo tiempo buscandola… (la tuve pero la perdi)

        Responder
        • Dedo-en-la-llaga - 26 febrero 2026 - 15:43

          La tengo.

          Responder
          • Lua - 26 febrero 2026 - 16:00

            Pues joder… metela en torrent… XDDD

            Responder
            • Dedo-en-la-llaga - 27 febrero 2026 - 11:02

              Te aviso cuando la pueda meter, será en breve.

          • f3r - 26 febrero 2026 - 16:04

            en la mula hay 1 persona que la tiene, debes de ser tú, jeje

            Responder
            • Lua - 26 febrero 2026 - 16:14

              Me estais poniendo histerico, eh? XDD TO-RRENT…!!!

            • Dedo-en-la-llaga - 26 febrero 2026 - 18:20

              No, yo no.

            • Lua - 26 febrero 2026 - 18:32

              Pero me lo pasas o es otra bacilada tuya? XDD

            • f3r - 27 febrero 2026 - 14:09

              Lua, la mula últimamente va incluso más rápido que el torrent! Gracias a la avaricia corporativa de las plataformas, por cierto

            • Lua - 27 febrero 2026 - 18:21

              Fer… la mula era y es una caca… ayer la instale, y en diez minutos me la quite de encima… por Diosx…. tanta configuración y tanto chorreo…

              Torrent, pincho y veo.

              Bájamela tu y hazme un Torrent, anda… XDD

            • f3r - 27 febrero 2026 - 18:40

              que nooo, que la mula ahora va como un tiro. Pero bueno, te lo he mandado.

            • Enrique Dans - 27 febrero 2026 - 18:58

              “Enrique Dans, detenido por la Guardia Civil por hospedar y fomentar actividades de piratería en los hilos de comentarios de su página…”

              Por cierto, ¿habéis probado Stremio? Brutal…

            • Lua - 27 febrero 2026 - 19:44

              No noooo que todo es por privado… aqui estamos hablando de lechugas… XDDD

        • guillermo - 27 febrero 2026 - 07:57

          Como te puedo enviar un correo?

          Responder
          • Lua - 27 febrero 2026 - 11:40

            Lua65 el circulito nrgk y net :)

            Responder
            • guillermo - 27 febrero 2026 - 12:22

              Enviado :)

    • Chema - 27 febrero 2026 - 10:01

      Corrección a la corrección:
      Trump firmó una orden ejecutiva para “restaurar el Departamento de Guerra”.
      Legalmente el nombre sigue siendo Departamento de Defensa, ya que fue creado por ley federal y sólo el Congreso puede modificarlo.
      La orden de Trump reconoce que el título es “secundario” y establece que, para fines legales, se debe mantener los títulos “Departamento de Defensa” y “Secretario de Defensa”.
      https://factchequeado.com/teexplicamos/20250923/departamento-guerra-cambio-trump-orden-ejecutiva/

      Responder
  • #032
    Javier M. - 26 febrero 2026 - 11:48

    Anthropic’s CEO Explains His Refusal to Back Down to the Pentagon.

    https://x.com/i/status/2026307377344213406

    Responder
  • #033
    D. FALKEN - 26 febrero 2026 - 11:53

    Lo cual pone de manifiesto que perder de vista el componente geopolítico en un análisis es como mirar a las cosas con un solo ojo.

    Responder
  • #034
    D. FALKEN - 26 febrero 2026 - 12:10

    ¿Siguen siendo los Estados Unidos una democracia? Formalmente, sí. Sustantivamente, la cuestión es más incómoda. Una democracia no se define solo por elecciones periódicas, sino por la existencia de límites efectivos al poder coercitivo del Estado.

    ¿Existe, de facto más democracia en Europa que en EEUU? Siempre he tenido la sensación de que sí, en tanto que la he interpretado en términos de voluntad popular. Dentro de la gran polarización social que se manifiesta que hay, la sensibilidad de una parte de los estadounidenses así como su particular relación con la Constitución me parecen diferenciadores. En Europa, quizas tengamos sobre el papel más intenciones, pero la cohesión o no existe o es muy débil por motivos obvios.
    Que me corrijan quienes conozcan de cerca la sociedad ‘americana’ y quien tambien maneje la realidad jurídica con más claridad. Sería de interés.

    Responder
    • D. FALKEN - 26 febrero 2026 - 12:13

      Perdon por la errata: la pregunta era al reves,
      ¿Existe, de facto más democracia en EEUU que en Europa?

      Responder
      • f3r - 26 febrero 2026 - 16:11

        wikipedia: «La democracia…es una forma de organización social y política … que atribuye la titularidad del poder al conjunto de la ciudadanía»

        De acuerdo a esta definición, no ha existido nunca la democracia. Es mero maquillaje a diferentes tipos de feudalismo tecnológico; un maquillaje que la «lluvia Trump» está corriendo rápidamente.

        PD: la mayor parte de las personas atribuyen democracia a 1) la existencia de un Estado de Derecho (mentira, la defensa es proporcional a tu pasta; las leyes se crean para que tus crímenes sean legales por defecto, etc) 2) que no te metan en un sótano a apalizarte por criticar a los que gobiernan, que puedas decir chorradas en internet, etc (una simple evolución del feudalismo, donde los siervos se relajan por quejarse en público, haciéndolos más eficientes al servir al poder), 3) que en unas elecciones puedas elegir entre a) partido A hace leyes para que los que gobiernan de verdad te exploten a conveniencia, b) partido B hace leyes para que los que gobiernan de verdad te exploten a conveniencia (con algunas regalías ínfimas que no cambian el cuadro económico)

        Responder
  • #037
    BUZZWORD - 26 febrero 2026 - 13:51

    Hay una narrativa que esto de las armas autónomas va a llegar si o si, nos guste o no nos guste. Es la misma lógica que defienden los ayatolas de Irán para tener armas nucleares, o por ejemplo si Ucrania no hubiera aceptado la desnuclearización de la época post soviética, seguramente Putin no se hubiera atrevido a iniciar esa invasión.

    Ese punto de vista, lo que es una verdad objetiva, a quien realmente le conviene es a los fabricantes de IA, y poder seguir en su burbuja y no hacer «kaputt»… para ello la fiesta la pagará el Estado americano.

    ¿A que juegan los trumpistas?, a decir que frenan a China, que sus Big Techs tienen que estar en la «pomada», antes que la propia administración actual haga «agua»… por cierto que todo ese desarrollo IA, lo que está trayendo a los «red necks» es que el agua y la luz se la llevan estas empresas tecnológicas, y los empleos que se crean no serán en ningún caso para granjeros o analfabetos funcionales. La paradoja del discurso MAGA –> no lo ven en sus bolsillos para nada, así que antes o después habrá unos nuevos luditas «los anti IA trumpistas del medio oeste», y esto vendrá o vendrá también.

    Al final los de «Claude», claudicaran ante el todopoderoso, y quitarán las salvaguardas. El problema trumpista son las formas, lo que han comprado es una IA con unas determinadas características, que 200 millones por la broma nos tiene que hacer pensar los inútiles que toman esas decisiones. ¿Cuantos modelos hacen en China con ese presupuesto? Me atrevería a decir que todos… deepseek+qwen+…

    Tampoco en Antrhopic han estado muy hábiles haciendo la pregunta si lo usaron para saltarse el derecho internacional (Maduro). Evidentemente si Palantir lo ha integrado no es para enviar medicamentos a Etiopia… Así que la postura inteligente sería poner filtros sutiles en Claude a ese tipo de uso… y cuando el «Departamento de Guerra» pidiera nuevos usos no previstos… entonces estudiarlo como upscopes, y contestar que eso supone un nuevo release del modelo de otros 200 millones… pero mientras estas dentro… estiras el chicle y ya negociaras con los demócratas. Mucha IA y la estrategia comercial de patio de colegio…

    Y si las armas autónomas es un sector que nos guste o no, hay que desarrollar, pero no al ritmo ni con las características de una administración dirigida por un loco. Europa o España deben de tener sus objetivos propios, su ética, y sus salvaguardas. Se llama soberanía y estrategia propia de defensa.

    Responder
    • Lua - 26 febrero 2026 - 14:06

      Visto el panorama actual, lo que necesita España es reactivar el Proyecto Islero … XDDD

      Quizás cambiando el uranio por concentrado de tomatina… el efecto degradador sobre el enemigo (sea el que sea) tiene que ser devastador… muerte por vergüenza ajena al más puro estilo Gila… XDDD

      Responder
      • BUZZWORD - 26 febrero 2026 - 14:15

        Eso es una boma sucia ¿no?, con lo que mancha…

        Responder
        • Lua - 26 febrero 2026 - 14:19

          Te digo yo, que nos temerían… XDDD

          Imagínate a las familias de los decesados…

          – Y tu hijo de que murió? ametrallado? mina antipersonal? un dron?
          – No colega… una inesperada descarga de tomates… que cabrones estos iberos… no tienen piedad…

          Responder
      • Lua - 26 febrero 2026 - 14:28

        Hechas las bromas pertinentes… España tendría capacidad para esa bomba. No seria muy brutal, pero podría esparcir unos cuantos kilotones… (lo que se conocen como “bombas sucias”). Residuos tenemos bastantes.

        Aunque el sentir general (y el mío propio) es la no proliferación belica nuclear de un lado, y la diplomacia frente el “a ver quien la tiene mas gorda”, lo cierto, es que esto último es lo que impera. Y una buena defensa, quizás no sea un buen ataque, pero si tienes unos cuantos bichos de esos en el trastero, igual algunos se piensan dos veces tocarte la moral (léase Marruecos, por ejemplo)

        Responder
        • BUZZWORD - 26 febrero 2026 - 14:38

          Un enjambre de drones «autónomos o independentistas» y recuperamos Tetúan.

          Responder
          • BUZZWORD - 26 febrero 2026 - 14:40

            Se me ha ido la tilde de sitio: Tetuán leñe

            Responder
          • Lua - 26 febrero 2026 - 14:41

            Si lo de independentistas va con segundas, la broma te ha salido mal… igual en tu cabeza sonaba espectacular… :P

            Responder
            • BUZZWORD - 26 febrero 2026 - 14:50

              VISCA RIF LLUIRE !!! XDDD!!!

              Pozi sonaba espectacular, y lo sigue haciendo… ja ja ja

              ¿quieres una mejor?

              Al vent

            • Lua - 26 febrero 2026 - 15:08

              https://i.imgur.com/FRNzMeB.mp4

        • BUZZWORD - 26 febrero 2026 - 14:42

          Eso ya se hizo con armas químicas…

          https://es.wikipedia.org/wiki/Armas_químicas_en_la_Guerra_del_Rif

          Responder
        • f3r - 26 febrero 2026 - 16:21

          Hoy en día los únicos estados soberanos de verdad son los que tienen la bomba. Fin.

          Responder
          • Lua - 26 febrero 2026 - 20:17

            Y chinpum… XDDD

            Responder
    • f3r - 26 febrero 2026 - 16:20

      «La paradoja del discurso MAGA –> no lo ven en sus bolsillos para nada, así que antes o después habrá unos nuevos luditas»

      Por si no lo habéis observado, da igual quién gobierne allí, las acciones geopolíticas tienen una misma dirección clara e imperturbable. Sacad vuestras conclusiones sobre por qué eso es así.

      Responder
  • #051
    Alqvimista - 26 febrero 2026 - 14:22

    Desgraciadamente los mundos de Yupi son irreales. Nosotros estamos en este.

    Y tenemos un ejemplo vivo ahora mismo: Ucrania.
    Cuando se independizó, Ucrania era la tercera potencia nuclear del mundo. Aceptó entregar sus armas a Rusia a cambio de paz y respeto territorial.
    En 2014 y 2022 Rusia viola el tratado y EEUU se olvida de su acuerdo de garantía. Y aquí seguimos.
    ¿Habría pasado eso si Ucrania hubiera tenido sus bombas atómicas? ¡Ni de lejos!

    Así que la cuestión no es … si la inteligencia artificial debe emplearse en defensa nacional sino si China o Rusia o un tercero lo harán. Y yo creo que sí lo harán.
    ¿Entonces? ¿Te quedas mirando cómo tus enemigos usan un arma terrible porque tú no quisiste hacerlo?

    Hemos visto videos institucionales de China soñando con utilizar soldados robots como los de Unitree, ¿soñando? ¿seguro que no los están ya fabricando o entrenando?

    El debate ético me parece interesante, claro, pero ya lo hemos vivido con las armas atómicas. Son terribles, mejor si no existieran, pero nunca más se han utilizado desde 1946.
    Las armas controladas por IA no son tan terribles, mejor si no se utilizaran pero, ¿apostarías tu existencia que nadie las tiene ni las tendrá?

    Responder
    • Lua - 26 febrero 2026 - 14:37

      A eso me refería en el ultimo comentario…

      Seguir pensando en unicornios de colores, demuestra muy poca capacidad de asumir la realidad en la que vivimos. Preferiríamos un mundo mejor? Por supuesto…

      Pero ya desde que el “hombre” empieza a separarse de la taxonomía del simio, las pugnas/guerras, forman parte de nuestro ADN. En el Congo, todavía hay auténticas “guerras” entre clanes de chimpancés, que ya no se limitan a zarpazos o bocados… están fabricando armas con palos y piedras…

      Ignorar que cualquier mejora tecnológica, por mas que se haga ”por el bien de la humanidad” va a tener una vertiente belicosa, es bastante absurdo…

      Mejor estar preparado. Porque la IA no va a ayudar mucho a una supuesta ”pacificación mundial”.

      Responder
      • Alqvimista - 26 febrero 2026 - 17:06

        ¿En serio? ¡Qué increíble!
        Esperando impaciente a ver cuándo inventan el arco o la honda…

        Responder
    • BUZZWORD - 26 febrero 2026 - 14:58

      Yo ya me he pronunciado a favor de que nosotros como sociedad libre y democrática, tengamos las armas que consideremos internamente necesarias. Aunque haría un cordón sanitario a los que lanzan mensajes de odio, racistas, xenofobos,…

      Ese debate que debería ser serio, profundo y urgente entre partidos con capacidad de gobernar y los profesionales del Ejército español.

      Responder
    • f3r - 26 febrero 2026 - 16:24

      Me parece que te has equivocado en todo:

      1) mundos de yupi son aquellos en los que Ucrania se independizara sin entregar las bombas atómicas

      2) mundos de yupi son aquellos en los que EEUU (o los ingleses antes de que les sucedieran) no son los primeros en crear una abominación para asesinar a gente

      En lo demás, de acuerdo contigo

      Responder
      • Alqvimista - 26 febrero 2026 - 17:01

        1) Ucrania ya era independiente cuando se pactó la entrega de sus armas nucleares.
        Y era lógico en el ambiente de la época. Y contaba con la garantía de EEUU y UK, así que ¿por qué no?

        2) Y sí, es verdad, ni los yankees ni los británicos han sido siempre de fiar.

        No sé cómo acabará la guerra, pero en cualquier caso yo que los ucranianos empezaría a plantearme muy en serio la cuestión del armamento nuclear, porque lo de la aplicación de la IA a la guerra ya lo dominan…

        Responder
        • Lua - 26 febrero 2026 - 18:37

          No seré yo quien defienda a los rusos…

          Pero los misiles, eran rusos en territorio, de aquellas, rusos…

          Te separas? Perfecto. Pero me devuelves mis pepinos.

          (no fue así de sencillo, pero aquí hay que simplificar)

          Responder
          • Alqvimista - 27 febrero 2026 - 07:40

            No te separas, la casa común se hunde, y de los restos nacen nuevas naciones, cada una con su territorio y con sus recursos. Entre las repúblicas ex soviéticas se repartieron el ejército de tierra, el del aire, la Marina rusa. Cada uno se quedó con lo que había en su territorio pero con acuerdos de servicio, etc, etc.
            Lo que era soviético se convirtió en ruso, ucraniano, kazajo, georgiano, etc.

            Cuando esto sucedió nadie puso en duda la validez del reparto. Fuimos nosotros, EEUU y Europa quienes lo hicimos sólo en la cuestión del armamento nuclear para evitar tener otra potencia nuclear.

            Responder
            • f3r - 27 febrero 2026 - 14:31

              No digo que no tengas parcialmente razón pero
              1)»la casa común»: en realidad todos sabían que uno de los habitantes de la casa común era quien mandaba más
              2)»cada una con su territorio y con sus recursos»: los recursos eran de la URSS, pero una vez partida la casa común, volvemos a 1). Aunque imagino que mientras los yanquis no daban por saco, no había grandes disputas.

              De Claude.ai:
              «After the Soviet Union dissolved in December 1991, Ukraine found itself in possession of the world’s third-largest nuclear arsenal — around 1,900 strategic warheads and thousands of tactical nuclear weapons, all left behind on its territory. Ukraine had no operational control over these weapons. The command and launch codes remained with Russia, and the technical maintenance was entirely dependent on Russian specialists. So while the weapons were physically on Ukrainian soil, Ukraine couldn’t actually use them.»

    • Matt - 27 febrero 2026 - 01:58

      No se pueden comparar con los armas nucleares. Las armas nucleares son el ultimo recurso, lo que nadie emplea salvo caso de fin del mundo o amenaza existencial (amenaza existencial de las de verdad, no de las de matar pescadores en el caribe diciendo que son peligrosísimos narcoterroristaspedofilosokupasfansdeVinicius). Desde que Estados Unidos las utilizara en Japon, los países que las poseen han estado en muchas guerras ya sea directamente o indirectamente y nunca las han utilizado.
      Las armas controladas por IA serían un estandar, el procedimiento habitual. Un anticipo lo tenemos con los drones en Ucrania y Rusia, que son practicamente ya el principal arma de guerra.

      Responder
  • #062
    Xaquín - 26 febrero 2026 - 17:26

    Así que el problema esencial en USA (y en el planeta) era la IA…. y no la IH de su gobierno??? En el Pentágono nunca necesitaron silicona… solo inhumanidad!!! Para ellos la silicona es una simple vaselina…

    Y como podemos ver, ya no necesitamos las series de TV, las FFAA no son el problema esencial…

    Responder
    • Lua - 26 febrero 2026 - 18:04

      Si a una sociedad, mediocre IH, le pones una herramienta IA, hecha por mediocres IH, y pones al mando, a mas mediocres IH… Que esperas meu fillo querido …??? Un milagro???

      Responder
  • #064
    Javier Lux - 26 febrero 2026 - 22:35

    Buff vaya dos post seguidos, ayer y hoy, sobre IA que son profundamente deprimentes.

    El de ayer sobre la ansiedad y stress que produce la IA en los trabajadores normales de una empresa, ya que la IA resuelve el 70% de los problemas que el trabajador resolvía, un 25% de los problemas también los resuelve la IA pero necesitan supervisión, y al final queda un 5% de los problemas que son un marrón del copón bendito. Como un consejero delegado o director general al que sólo le llegan unos problemones que debe resolver rápidamente.

    Y hoy este, que viene a decir que vamos hacia un estado de control total gracias a la IA y que esta tomará decisiones de vida o muerte sobre nosotros.

    PS: Yo llevo aquí 8 meses (desde el arancelazo Trump) llamando a la sustitución de productos USA por productos Union Europea. Supongo que una IA del pentágono pronto me identificará y pondrá un recordatorio en el Sistema ESTA de viajes a USA, si no cosas peores.

    Deprimente

    Responder
    • Alqvimista - 27 febrero 2026 - 07:57

      Hice un maravilloso viaje por el oeste norteamericano hace dos años.
      Mi sueño era volver para hacer el Old Spanish Trail* que recorre el sur del país de Florida a California, pero ya sé que será imposible. Basta que el aduanero de turno consulte mi información recopilada por sus IA sobre mis opiniones expresadas públicamente en foros como este para que se active una alarma y sea expulsado inmediatamente. Bueno, eso si supero el filtro de la ESTA.
      Ya ni siquiera se pedir las claves de mis RRSS, el informe ya será consultable directamente por ellos.

      * Old Spanish Trail https://somatemps.me/2016/03/27/28910/

      Responder
  • #066
    guillermo - 27 febrero 2026 - 07:50

    Tranquilos que la Ia, ha venido a salvar el mundo.
    Va a evitar que trabajemos.
    Va a evitar el dinero.
    Va a permitir que vivamos 200 años y sin enfermedades.
    No nos va a permitir saber que es verdad o mentira,
    Viviremos en un mundo mas perfecto y controlado por la IA.
    ¿no sé porqué os preocupáis?
    Esto me recuerda a format c: /V /F

    Responder
    • Alqvimista - 27 febrero 2026 - 11:15

      ¡Huy, qué dices, es más divertido el sudo rm -rf /! XDDDD

      NOTA: no lo hagáis

      Responder
  • #068
    Michel Henric-Coll - 27 febrero 2026 - 10:19

    No sé si Enrique Dans va a permitir que incluya la referencia, pero hay un libro —muy reciente— que sirve de descodificador a lo que está ocurriendo, y a lo que le está esperando a la democracia tal como Europa sigue entendiéndola.

    Se trata de Tecno Absolutismo Global, de Arturo Gradolí.

    Una lectura que aporta muchas claves.

    .

    Responder
  • #069
    Asier - 27 febrero 2026 - 15:07

    Ya tenemos respuesta de Dario Amonei. ¡Bravo!
    A ver cómo se desarrolla el asunto.

    Responder
  • #071
    Luisondome - 28 febrero 2026 - 20:48

    ¿Que es lo que nos extraña? Solo hay que seguir los trabajos de DARPA (Defense Advanced Research Projects Agency) para enterarnos de que en ello vienen trabajando desde hace años.
    Estamos hablando de la guerra del futuro, que es aquella en la que se utilizan tecnologías emergentes de uso civil, pero radicales cuando estas se utilizan para uso militar.
    DARPA está desarrollando tecnologías robóticas y de autonomía que son directamente aplicables a la guerra, aunque oficialmente se habla de “sistemas autónomos” y “apoyo al combatiente” más que de “guerra robótica” como tal.
    Sus principales áreas de investigación y desarrollo son:
    Inteligencia Artificial avanzada
    Sistemas de IA más robustos y explicables
    IA para apoyo táctico militar
    Automatización en análisis de grandes volúmenes de datos

    Biotecnología y salud
    Edición genética
    Protección contra pandemias y amenazas biológicas
    Interfaces cerebro-computadora (BCI)
    Prótesis avanzadas controladas por el pensamiento

    Espacio y defensa avanzada
    Sistemas de defensa hipersónica
    Seguimiento de amenazas espaciales
    Lanzamiento rápido de satélites

    Ciberseguridad
    Sistemas de defensa contra ciberataques sofisticados
    Criptografía post-cuántica

    Neurotecnología
    Proyectos para conectar el cerebro humano con sistemas digitales
    Estudio de mejora cognitiva en contextos militares

    Energía y materiales avanzados
    Nuevos materiales ultrarresistentes
    Tecnologías energéticas compactas para uso en campo.

    Con estos mimbres se está armando el ejército norteamericano del futuro. Se pueden extraer varias conclusiones de conjunto a partir de los programas de DARPA , como:​

    1. Militarización integral de todos los dominios
    DARPA trabaja a la vez en tierra, mar, aire, espacio, ciberespacio y espectro electromagnético, con la idea de que el combate será multidominio y fuertemente integrado. No hay un “frente” único, sino una red de sistemas distribuidos (satélites, drones, sensores submarinos, plataformas terrestres y ciber) que se apoyan mutuamente.

    2. Centralidad de la autonomía y la IA
    La agencia apuesta por sistemas cada vez más autónomos: vehículos terrestres (RACER), buques y drones submarinos (ACTUV/Sea Hunter, Manta Ray), enjambres de sensores, constelaciones espaciales y herramientas de ciberdefensa automática. La IA se concibe como núcleo para pilotar, coordinar, filtrar información y tomar decisiones tácticas a velocidades inalcanzables para humanos.

    3. Del soldado “portador de fusil” al gestor de sistemas
    El “soldado del futuro” aparece como un operador aumentado (exoesqueletos, sensores, visión, armas guiadas) rodeado de robots y algoritmos que asumen tareas peligrosas o rutinarias. El humano se desplaza del combate directo a funciones de mando, supervisión y decisión de alto nivel sobre redes de sistemas autónomos.

    4. Infraestructura de mando, no solo armas
    Muchos programas no son armas concretas, sino infraestructuras de mando y control:

    *Plan X para planificar y ejecutar ciber‑operaciones.
    *Hallmark y SSA para “ver” y gestionar el dominio espacial.
    *Testbeds para simular guerras espaciales o cibernéticas antes de llevarlas a cabo.
    Esto sugiere que el objetivo es controlar el “sistema de sistemas” que articula la guerra futura.

    5. Resiliencia distribuida y proliferación barata
    Programas como Blackjack (constelaciones LEO baratas) o las Redes de UUV/USV (Hydra, Manta Ray, Sea Hunter) buscan sustituir grandes plataformas muy caras y vulnerables por muchas plataformas más baratas, distribuidas y reemplazables. La lógica es que un adversario no pueda decapitar el sistema con pocos golpes estratégicos.

    6. Búsqueda de “sorpresa estratégica” y ventaja tecnológica
    La propia misión de DARPA es crear “sorpresa tecnológica estratégica” a favor de Estados Unidos. Eso implica explorar tecnologías que pueden cambiar las reglas del juego: materiales exóticos, nuevos conceptos de propulsión submarina silenciosa, armas y sensores espaciales, IA aplicada a mando y control o a ciberseguridad.

    7. Creciente preocupación ética y de control
    Al mismo tiempo, aparecen programas explícitos sobre ética en armas autónomas y sobre fiabilidad de la IA, que intentan encajar esta ola de automatización en marcos normativos y de legitimidad política. Es una señal de que el propio establishment percibe riesgos de pérdida de control, escalada inadvertida y problemas de responsabilidad en la toma de decisiones letales.

    8. Difuminación de la frontera civil‑militar
    Muchas tecnologías se conciben desde el principio con “doble uso”: IA, comunicaciones, materiales, logística y producción descentralizada (agua del aire, fármacos, alimentos de fuentes no tradicionales, etc.). Esto refuerza la tendencia a que el ecosistema civil (empresas de tech, espacio comercial, datos, IA generativa) quede crecientemente integrado en la arquitectura de poder militar.

    En conjunto, los programas de DARPA apuntan a un modelo de guerra altamente automatizado, distribuido y permanente, en el que la ventaja no la dan solo las plataformas de armas clásicas, sino el control de redes de IA, sensores y robots que abarcan todos los dominios, con un humano mas en el rol de supervisor estratégico que en el de combatiente directo.
    https://luisdomenechlopez.substack.com/p/la-guerra-del-futuro

    Responder

Dejar un Comentario a Asier

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Cancelar respuesta

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.