Durante décadas, Arm ocupó una posición casi perfecta en la industria: no competía frontalmente con sus clientes, les vendía la arquitectura, el diseño y la propiedad intelectual sobre la que luego otros construían sus propios procesadores.
Era, en cierto modo, la «Suiza» del sector: neutral, ubicua y extraordinariamente rentable. Eso acaba de cambiar. La compañía acaba de presentar su primer chip propio para centros de datos, el Arm AGI CPU, y confirmó que Meta será su socio principal y co-desarrollador, mientras que OpenAI, Cloudflare, SAP, Cerebras, F5, SK Telecom y otros figuran entre los compradores iniciales. Arm, además, no lo plantea como un experimento marginal, sino como una ampliación histórica de su negocio desde el licenciamiento hacia el silicio en producción.
La importancia del movimiento no está solo en que Arm fabrique un chip, sino en qué tipo de chip ha decidido fabricar. No ha intentado entrar por la puerta más obvia, la del gran acelerador que compite de tú a tú con Nvidia, sino por una mucho más inteligente: la del CPU especializado para la era de la inteligencia artificial agéntica. Arm sostiene que, a medida que la inteligencia artificial deja de limitarse a entrenar modelos y pasa a ejecutar agentes que razonan, coordinan tareas, lanzan herramientas, gestionan memoria y mueven datos entre aceleradores, vuelve a crecer el papel del procesador central. En su presentación, lo resume de forma casi provocadora: los agentes disparan la demanda de CPU porque alguien tiene que orquestar todo ese caos computacional.
No es un argumento vacío. Nvidia, de hecho, acaba de lanzar también Vera, su CPU «purpose-built for agentic AI», y la propia OpenAI lleva meses reforzando su estrategia de infraestructura con chips diseñados a medida junto a Broadcom. La señal es inequívoca: el futuro no es «sólo GPU», sino heterogéneo, con CPUs, GPUs, redes y memoria diseñadas como un sistema.
Desde un punto de vista técnico, el anuncio tiene bastante más sustancia de la que parece en una primera lectura. Arm afirma que su AGI CPU, fabricado por TSMC en 3nm, tendrá hasta 136 núcleos Arm Neoverse V3 por CPU, un TDP de 300W, 6GB/s de ancho de banda de memoria por núcleo con latencia inferior a 100ns, y densidades de hasta 8,160 núcleos por rack en aire o más de 45,000 en líquido. La compañía asegura además más del doble de rendimiento por rack frente a plataformas x86, y llega a hablar de hasta 10,000 millones de dólares de ahorro de CAPEX por gigavatio de capacidad de centro de datos. Obviamente, como siempre en este tipo de cifras, conviene distinguir entre los datos verificados independientemente y las afirmaciones del fabricante, pero lo relevante no es sólo el número: es la direccionalidad. Estamos viendo un procesador diseñado para maximizar densidad, eficiencia energética, utilización de aceleradores y comportamiento sostenido bajo carga, no para ganar benchmarks decorativos.
Aquí entra Meta, y su papel explica casi todo. La compañía dejó claro hace apenas unas semanas que su estrategia de infraestructura para inteligencia artificial es un «portfolio approach»: combinar chips propios, como sus MTIA, con silicio de múltiples socios, en ciclos de desarrollo cada vez más rápidos. Meta dice ya desplegar cientos de miles de MTIA para inferencia y trabajar en cuatro nuevas generaciones en los próximos dos años, y además, ha anunciado acuerdos plurianuales con AMD y con NVIDIA para alimentar su infraestructura. La alianza con Arm encaja perfectamente en esa lógica: no sustituye a sus chips propios ni a las GPUs externas, sino que añade una pieza especialmente eficiente para inferencia, control, coordinación y gestión del sistema. En otras palabras, Meta no está apostando por «el chip ganador», sino por una arquitectura diversificada en la que cada componente hace aquello para lo que resulta más eficiente. Y eso, a estas alturas, me temo que es probablemente la única estrategia racional.
Para los que conocen bien el sector, la pregunta realmente interesante no es si el chip de Arm tendrá éxito comercial inmediato, sino qué implica para el ecosistema de Arm. Porque Arm ya no solo compite contra Intel y AMD en el servidor tradicional: ahora también se acerca peligrosamente a sus propios clientes más sofisticados, desde AWS Graviton hasta Azure Cobalt, Google Axion o incluso la línea Vera de Nvidia, todos basados en tecnología Arm. Y, sin embargo, muchos de ellos aplauden públicamente el lanzamiento. ¿Por qué? Porque esta aparente contradicción tiene una lógica industrial poderosa: un Arm más fuerte en centros de datos acelera la estandarización del software, mejora las herramientas, profundiza la optimización del ecosistema y empuja a todo el sector hacia más volumen. AWS, por ejemplo, recuerda que la mayoría de la nueva capacidad de cómputo que añadió a su flota en 2025 ya estaba impulsada por Graviton, y sostiene que Arm ha sido clave en ese cambio. Básicamente, aunque Arm invada parte del terreno de sus clientes, también puede hacer más grande el mercado en el que juegan todos.
Eso no elimina el riesgo político del movimiento. La neutralidad de Arm era uno de sus grandes activos estratégicos, y llevaba tiempo erosionándose. Reuters ya había adelantado en 2024 y 2025 que la compañía estudiaba fabricar chips, chiplets, placas e incluso sistemas completos, y que buscaba elevar márgenes vendiendo productos de mayor valor añadido. Visto con perspectiva, el AGI CPU no es una improvisación de última hora, sino la culminación de una hoja de ruta clara: Arm quiere capturar una parte mayor del valor que genera su ecosistema y dejar de limitarse a cobrar peajes por propiedad intelectual. Es una ambición comprensible, pero delicada: cuanto más éxito tenga como proveedor de silicio terminado, más dudas despertará entre clientes que hasta ahora la veían como una base neutral sobre la que construir.
También conviene entender el trasfondo económico. Durante años, el dominio de x86 en el centro de datos se sostuvo por inercia, compatibilidad y un ecosistema enorme. Pero la era de la inteligencia artificial ha cambiado la ecuación. Cuando la electricidad, la refrigeración, la densidad por rack y la utilización real del acelerador se convierten en variables existenciales, la eficiencia deja de ser una virtud sin más y pasa a ser una condición de supervivencia. AWS presume de que sus instancias Graviton cuestan hasta un 20% menos que las equivalentes x86 y pueden usar hasta un 60% menos de energía para el mismo rendimiento. Arm, por tanto, no entra en el mercado diciendo «nuestro chip es bonito», sino «nuestro chip puede mejorar la economía completa del centro de datos». Y en un mundo en el que OpenAI, Meta, Amazon, Microsoft o Google están comprometiendo gigavatios enteros de capacidad, eso pesa mucho más que cualquier narrativa publicitaria.
¿Mi impresión? Que este movimiento no debe leerse como el nacimiento de un nuevo competidor más en la guerra de los chips, sino como algo bastante más relevante: el paso de Arm desde ser una arquitectura hacia convertirse en una plataforma industrial completa. Si le sale bien, no venderá solo licencias ni un puñado de CPUs, sino una especie de patrón de referencia para la infraestructura de inteligencia artificial eficiente: procesadores, diseños de sistema, integración con memoria, software optimizado y una ruta de adopción más rápida para quienes no pueden permitirse crear un Graviton o un MTIA desde cero. Si le sale mal, habrá deteriorado la confianza de sus clientes históricos sin lograr masa crítica como fabricante. Pero incluso en ese escenario, la dirección del viaje ya es irreversible. El mensaje que deja el anuncio es claro: en la inteligencia artificial, el poder ya no está solo en quien entrena el modelo más grande, sino en quien controla mejor la pila completa, desde el software hasta el silicio. Y Arm acaba de decidir que ya no quiere limitarse a poner los ladrillos: quiere diseñar también el edificio entero.


Bienvenida la bendita competencia,… aunque la promueva Meta.
Pues yo hago otra lectura. ARM se encuentra en una posición delicada. Su modelo de negocio se basa en cobrar por cada núcleo diseñado. RISC-V, al ser una arquitectura de estándar abierto (ISA), permite a las empresas chinas (y occidentales) diseñar procesadores sin pagar cánones de licencia a una entidad británica/estadounidense.
China no necesita los 3nm de TSMC para todo. Para controladores, IoT, e incluso inferencia básica en centros de datos, los 7nm o 14nm fabricados localmente (SMIC) con RISC-V son «suficientemente buenos» y radicalmente más baratos. Ha convertido a RISC-V en su prioridad nacional para esquivar las sanciones de EE. UU. Empresas como Alibaba (T-Head) o Huawei ya tienen procesadores RISC-V que compiten seriamente en rendimiento por vatio.
Al fabricar su propio chip (ARM AGI CPU), ARM deja de ser un simple recaudador de impuestos de diseño y pasa a vender producto final con alto margen. Es una huida hacia adelante: «Si van a dejar de pagarme licencias porque prefieren RISC-V, al menos les venderé el mejor procesador de orquestación de IA del mercado».
Es decir, ARM sabe que ha perdido, o perderá, una parte masiva del mercado chino de licencias. Para compensar esa pérdida de ingresos, necesita «afianzar» a sus clientes occidentales (Meta, OpenAI) ofreciéndoles algo que RISC-V aún no tiene, que es un ecosistema de software e integración vertical listo para usar (Plug & Play).
RISC-V es muy potente, pero sufre de fragmentación (cada cual hace su implementación). Al lanzar un chip propio, ARM está intentando estandarizar el hardware de la IA antes de que el ecosistema RISC-V madure lo suficiente como para que Meta o Google decidan que les sale más a cuenta fabricar sus propios núcleos abiertos.
La lectura final, irónicamente, creo que será positiva para los estándares abiertos gracias a la autarquía tecnológica de China (es que tiene guasa la cosa), porque está forzando al resto del mundo a ser más eficiente…
Pues me extraña que entre tanto procesador específico para Centros de Datos IA no hayas dicho nada del chip Baltra del Proyecto ACDC de Apple (tranquillo Buzz, respira, no pasa nada, sólo es otro fanboy hablando de sus cosas), que se supone comienza la fabricación a fin de año.
https://fanaticosdelhardware.com/apple-prepara-chips-de-servidor-propios-para-ia-con-produccion-prevista-en-2026/
Centrandonos en la estricta innovación, es una buena noticia. La optimización del hardware es vital que vaya muy de la mano del desarrollo del software. Hasta el momento Arm había sido para mi uno de los referentes mas respetables en el sector. Ahora decepciona. Y la entrada de Meta en la ecuación no es solo una mala noticia, sino la peor al situarse como socio protagonista. El sector tecnológico británico esta mirando definitivamente más hacia su alter ego del otro lado del Atlantico que hacia Europa. Ya con el ejemplo del viraje de Raspberry Pi Holdings plc empezó a oler mal. Y me temo que esta nueva línea de desarrollo acabe tambien suponiendo más perdida de soberanía para los usuarios finales.
Off-topic: @EDans, grata noticia los 2M de financiación para TuringDream. Además me ha sorprendido (por ignorancia) la apuesta por los world models. Espero que en su momento puedas compartir algun interesante artículo tuyo al respecto.