El choque entre el Pentágono y Anthropic es una advertencia para cualquier empresa que compre inteligencia artificial

IMAGE: Two executives sit across a table with laptops as a glowing humanoid AI figure rises between them, symbolizing a high-stakes power struggle over control of artificial intelligence

De vez en cuando, una disputa aparentemente «técnica» revela algo mucho más profundo. El reciente enfrentamiento entre el Departamento de Defensa de los Estados Unidos y Anthropic es uno de esos momentos: no por tratarse de un contrato de doscientos millones de dólares, sino porque hace visible un nuevo tipo de riesgo empresarial, uno que la mayoría de los CEO, CTO y CIO siguen tratando como un simple detalle de compras.

En un artículo reciente, «El día en que el Pentágono decidió que la ética era un estorbo«, me centré en el significado político de que un gobierno intente forzar a una empresa de inteligencia artificial a relajar sus propias salvaguardas. Para los líderes empresariales, la conclusión más importante es mucho más práctica: si tus capacidades de inteligencia artificial dependen de los términos, políticas y mecanismos de control de un único proveedor, tu estrategia pasa a depender de conflictos ajenos.

Según diversas informaciones, el Pentágono quería poder utilizar los modelos de Anthropic «para cualquier propósito legal», mientras que Anthropic insistía en excepciones explícitas, especialmente en torno a la vigilancia masiva y las armas totalmente autónomas. Cuando Anthropic se negó a ceder, el conflicto escaló hasta amenazas de exclusión y designación como «riesgo en la cadena de suministro», con presión pública al más alto nivel político. La Associated Press describe con detalle tanto la demanda de acceso ampliado como sus posibles consecuencias, incluida la disposición del Pentágono a considerar el cumplimiento como condición no negociable para participar en su red interna de inteligencia artificial, GenAI.mil.

Y entonces llegó el segundo acto: OpenAI intervino con su propio acuerdo con el Pentágono, presentándolo como compatible con sólidos principios de seguridad, mientras continuaba el debate sobre lo que realmente impide el lenguaje contractual, especialmente en lo relativo al uso de datos públicos a gran escala.

Puede que tu empresa no venda al Pentágono ni a gobiernos que hacen que la democracia parezca cada vez más una idea anticuada. Pero casi con toda seguridad estás construyendo sobre proveedores cuyos modelos están moldeados por políticas, decisiones políticas, contratos y riesgos reputacionales. Y si estás desplegando esos modelos «tal cual», o construyendo sistemas agénticos estrechamente acoplados a las herramientas y supuestos de un único proveedor, estás haciendo una apuesta estratégica cuyo coste probablemente no has internalizado.

Eso es lo que este conflicto debería enseñar a cualquier empresa.

Tu proveedor de inteligencia artificial no es solo un suministrador. Es un régimen de gobernanza

Durante los últimos dos años, muchas empresas han tratado la adquisición de LLM como si fuera la adquisición de cloud: elegir proveedor, negociar precio, firmar condiciones, integrar APIs y lanzar pilotos.

Pero los proveedores de LLM no venden infraestructura neutral. Venden modelos con restricciones incorporadas, políticas que pueden cambiar y mecanismos de control que pueden endurecerse de la noche a la mañana. Incluso cuando los modelos se consumen vía API, la realidad práctica es que tu «capacidad» está en parte controlada desde fuera: mediante políticas de uso, comportamientos de rechazo, límites de uso, registros, retención de datos, capas de seguridad y redacción contractual.

Por eso esta disputa es relevante. La postura de Anthropic no era simplemente «ética». Era gobernanza de su producto. La postura del Pentágono no era simplemente «presión del cliente». Era una exigencia de control sobre esa gobernanza.

Los directivos deberían reconocer inmediatamente el paralelismo: el comportamiento de la inteligencia artificial en tu empresa está determinado en parte por la definición de uso aceptable de un proveedor, y esa definición puede chocar con tus necesidades de negocio, tu entorno regulatorio, tu geografía o tu apetito de riesgo.

En cierto sentido, estás externalizando parte de tu arquitectura de decisión. Y cuando la gobernanza se convierte en el campo de batalla, deja de ser un problema técnico: pasa a ser estratégico.

La inteligencia artificial «de fábrica» es inteligencia alquilada. La estrategia exige capacidad propia

He escrito anteriormente que la mayoría de los despliegues actuales de inteligencia artificial son, en esencia, inteligencia alquilada: potente, conveniente, pero en última instancia genérica. Ese era el núcleo de mi argumento en «This is the next big thing in corporate AI« y en «Why world models will become a platform capability, not a corporate superpower«. Cuando todos pueden alquilar capacidades similares de OpenAI, Anthropic, Google, xAI u otros, la diferenciación se desplaza a lo que construyes por encima del modelo: tus flujos de trabajo, tus bucles de retroalimentación, tu integración con la realidad operativa.

El conflicto del Pentágono pone de relieve una verdad incómoda: cuando dependes del comportamiento «tal cual» de la inteligencia artificial, tu continuidad operativa depende de las líneas rojas de otro, y esas líneas pueden verse cuestionadas por clientes, gobiernos, tribunales o dinámicas internas.

Si eres CIO o CTO, este es el momento de dejar de considerar la elección de LLM como «la estrategia de inteligencia artificial» y empezar a verla como un componente sustituible dentro de un sistema más amplio.

Porque la verdadera pregunta estratégica no es «¿qué modelo elegimos?», sino: «¿tenemos la capacidad técnica y organizativa para cambiar de modelo rápidamente, sin reescribir nuestra lógica de negocio, reentrenar a toda la organización o reconstruir nuestros sistemas de agentes

Los sistemas agénticos multiplican el lock-in… y amplifican el riesgo

¿De verdad pensabas que por decir «estamos desarrollando un sistema agéntico» eras, de algún modo, «más sofisticado»? Casos de uso simples como resumir, redactar o mejorar búsquedas son relativamente portables. Los sistemas agénticos no lo son.

En el momento en que construyes agentes que llaman a herramientas, activan flujos de trabajo, acceden a sistemas internos y encadenan decisiones, empiezas a codificar lógica de negocio en lugares sorprendentemente difíciles de migrar: prompts, esquemas de llamadas a funciones, patrones de selección de herramientas, comportamientos de seguridad específicos del modelo, frameworks de orquestación propios del proveedor e incluso «peculiaridades» de cómo un modelo concreto maneja la ambigüedad.

Por eso el conflicto entre el Pentágono y Anthropic debería percibirse como un escenario de riesgo corporativo, no como un drama en Washington: un cambio repentino de política, una disputa contractual o un shock reputacional pueden obligarte a cambiar de proveedor rápidamente, y si tus agentes están fuertemente acoplados a un stack concreto, tu negocio no «cambia». Se detiene.

En un artículo anterior, «Why your company (and every company) needs an ‘AI-first’ approach«, defendí algo relacionado, desde otro ángulo. «AI-first» no debería significar desplegar más inteligencia artificial, sino construir sistemas en los que la inteligencia artificial esté estructuralmente integrada, pero también gobernada, testable, observable y resiliente al cambio.

Resiliencia es la palabra que falta en la mayoría de los planes de inteligencia artificial empresarial.

La lección no es «ética primero». Es «arquitectura primero«

No necesitas adoptar una postura moral pública como la de Anthropic (o quizá sí, pero ese no es el tema aquí). Lo que sí necesitas es diseñar asumiendo que tu relación con el proveedor será volátil… porque lo será.

Esa volatilidad puede venir de múltiples frentes:

  • Un proveedor cambia su postura de seguridad.
  • Un regulador introduce nuevas restricciones.
  • Un cliente exige excepciones contractuales.
  • Un gobierno presiona a los proveedores.
  • Un proveedor modifica precios, retención o disponibilidad.
  • Un modelo se retira, restringe o reclasifica.
  • Un evento geopolítico redefine lo que significa «uso aceptable».

Las organizaciones que navegarán mejor este entorno serán aquellas que traten los LLM como motores intercambiables y construyan capacidades independientes del modelo.

Eso implica invertir en una capa que te pertenezca: evaluación, enrutamiento, políticas, observabilidad e integración con tu realidad operativa.

Si necesitas un marco mental, piensa en lo que está haciendo NIST con su AI Risk Management Framework: una forma estructurada de mapear, medir y gestionar el riesgo de inteligencia artificial en distintos contextos y casos de uso, en lugar de asumir que la tecnología es segura porque lo diga el proveedor.

El propio Pentágono (irónicamente, dada esta disputa) dispone de principios formales de implementación de inteligencia artificial responsable, que enfatizan la gobernanza, las pruebas y la disciplina a lo largo del ciclo de vida.

Las empresas deberían leer esos documentos no como «ética gubernamental», sino como un recordatorio de que la capa de control es tan importante como el modelo.

Construye capacidades de inteligencia artificial que reflejen tu negocio, no a tu proveedor

El objetivo final no es la «independencia de modelo» como principio abstracto. Es la dependencia de la estrategia: sistemas de inteligencia artificial profundamente moldeados por tu cadena de suministro, tu modelo operativo, tu perfil de riesgo, tus obligaciones con clientes y tu contexto competitivo, por complejos que sean.

Esa es la parte que la mayoría de las empresas sigue evitando, porque es más difícil que comprar un modelo.Requiere construir competencia institucional: la capacidad de evaluar modelos, sustituirlos, ajustar su comportamiento mediante capas propias de gobernanza, instrumentar resultados, gestionar el acceso a herramientas y tratar a los agentes como sistemas de producción, no como demostraciones.

En «What are the 2 categories of AI use and why do they matter traté de describir la diferencia entre las organizaciones que usan inteligencia artificial y las que construyen con inteligencia artificial. El conflicto entre el Pentágono y Anthropic ilustra perfectamente por qué esa diferencia se está volviendo existencial. Si solo «usas», heredas las limitaciones de otros. Si «construyes», puedes adaptarte.

Las empresas que sigan tratando la inteligencia artificial como un complemento para reducir costes casi con toda seguridad infrainvertirán en la arquitectura que permite cambiar. Las narrativas de eficiencia resultan tranquilizadoras, pero a menudo te encierran en la versión más superficial de la tecnología.

El Pentágono no quería que la ética fuera un obstáculo. Anthropic no quería ceder el control. OpenAI negoció otro conjunto de condiciones. Ese triángulo no es una anécdota aislada. Es un anticipo de hasta qué punto el suministro de inteligencia artificial será disputado, politizado y estratégicamente crítico.

El trabajo de tu empresa no es elegir al proveedor «correcto».

Tu trabajo es asegurarte de que, cuando llegue el conflicto inevitable, tu negocio no quede atrapado dentro de la discusión de otro.


(This article was previously published on Fast Company)

10 comentarios

  • #001
    bymiki - 24 marzo 2026 - 11:49

    Puede que me haya perdido algún artículo pero me extraña que no se hable más de LLMs de código abierto como Ollama. Creo que pueden cubrir buena parte de las tareas rutinarias de las empresas y los requerimientos para montarlos en VPS son perfectamente asumibles. No hace falta la capacidad de procesamiento de Claude y compañía para responder emails o analizar facturas. Y evitan un montón de problemas como los descritos en el artículo. Y otros desde mi punto de vista también muy graves como temas de protección de datos.

    Responder
  • #002
    BUZZWORD - 24 marzo 2026 - 17:53

    https://www.reddit.com/r/LocalLLaMA/comments/1rf2ulo/qwen35_122b_in_72gb_vram_3x3090_is_the_best_model/

    Mientras tanto qwen3.5 122b podría haber usado «sin cortapisas» este modelo abierto a un coste mínimo, pero claro aqui el departamento de defensa tendría que haber …

    a) tenido buenos profesionales para su integración
    b) usar un modelo chino
    c) no podría untar de billetes a sus amigos del lobby de Defensa

    Es mal comparado: lo que vale un Patriot vs lo que vale un Shahed.

    Mientras en EE.UU no hay dinero para Sanidad ni Educación pública pero si hay una millonada para inventarse una guerra basada en el cuñadismo del idiot-in-chief y tapar lo de Epstein.

    Responder
    • Dedo-en-la-llaga - 24 marzo 2026 - 19:52

      «Mientras en EE.UU no hay dinero para Sanidad ni Educación pública pero si hay una millonada para inventarse una guerra basada en el cuñadismo del idiot-in-chief y tapar lo de Epstein.» Uf si sólo fuese para eso…

      Eso es la espumita de la cosa, lo que hay debajo mejor no lo contamos. (La cantidad de hijoputez mundial está alcanzando cotas tan colosales, que en breve no habrá planeta que la pueda albergar… Y entonces y solo entonces vendrá el Gran Castigo; y en verdad os digo, hermanos, que será épico…).

      Responder
    • Alqvimista - 25 marzo 2026 - 07:45

      En EEUU siempre ha habido dinero para Educación y Sanidad Pública, lo que nunca ha habido es mentalidad para instaurarla.
      Es su mentalidad, totalmente inclinada del lado del individualismo. Y “lo público” queda restringido al ámbito de “lo caritativo”.
      Lo que es curioso porque, en esencia, un Seguro funciona igual: muchos pagando un poco a cambio de la pequeña posibilidad de un retorno cuando sea necesario; y unos pocos que “abusan” recibiendo retorno continuamente. Lo primero molesta mucho, lo segundo es normal ¯\_(ツ)_/¯

      Responder
      • Dedo-en-la-llaga - 25 marzo 2026 - 12:18

        Touché!!!

        Responder
  • #006
    Guillermo - 24 marzo 2026 - 19:08

    Nada mejor como un conflicto armado para probar nuevas tecnologías. 1,2,3 responda otra vez…… la IA

    Responder
    • Dedo-en-la-llaga - 24 marzo 2026 - 23:51

      Querrás decir que para ganar pasta.

      Responder
  • #008
    f3r - 25 marzo 2026 - 09:07

    «Pero los proveedores de LLM no venden infraestructura neutral.»

    Se podría argumentar que un «cloud» tampoco lo es. De hecho se podría argumentar que no existe ni un solo segundo de tu vida diaria que no consista en una decisión crucial, y no neutral, sobre lo que ocurre en el mundo. Es por eso que todos somos cómplices de todas las cosas que pasan en nuestro barrio, nuestra provincia, nuestro país, nuestro planeta.

    Responder
  • #009
    Xaquín - 25 marzo 2026 - 14:58

    «la diferenciación se desplaza a lo que construyes por encima del modelo» (EDans).

    Hoy me quedo con este «viejo» axioma… aplicado por ejemplo a la rueda (y a la IH).

    Responder
  • #010
    Luis - 25 marzo 2026 - 15:40

    Buen artículo Enrique, gracias.Un simil simple creo que podría ser la portabilidad de tu número movil, llevando todos tus contactos o teniendo que rehacer de nuevo la agenda.

    Responder

Dejar un Comentario

Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista. Estás en tu perfecto derecho de comentar anónimamente, pero por favor, no utilices el anonimato para decirles a las personas cosas que no les dirías en caso de tenerlas delante. Intenta mantener un ambiente agradable en el que las personas puedan comentar sin temor a sentirse insultados o descalificados. No comentes de manera repetitiva sobre un mismo tema, y mucho menos con varias identidades (astroturfing) o suplantando a otros comentaristas. Los comentarios que incumplan esas normas básicas serán eliminados.

 

XHTML: Puedes utilizar estas etiquetas: A ABBR ACRONYM B BLOCKQUOTE CITE CODE DEL EM I Q STRIKE STRONG IMG

Resumen de privacidad

Este sitio web utiliza cookies para que pueda ofrecerte la mejor experiencia de usuario/a posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves al sitio web o ayudar a comprender qué secciones del sitio web encuentras más interesantes y útiles.