Durante décadas, Arm ocupó una posición casi perfecta en la industria: no competía frontalmente con sus clientes, les vendía la arquitectura, el diseño y la propiedad intelectual sobre la que luego otros construían sus propios procesadores.
Era, en cierto modo, la «Suiza» del sector: neutral, ubicua y extraordinariamente rentable. Eso acaba de cambiar. La compañía acaba de presentar su primer chip propio para centros de datos, el Arm AGI CPU, y confirmó que Meta será su socio principal y co-desarrollador, mientras que OpenAI, Cloudflare, SAP, Cerebras, F5, SK Telecom y otros figuran entre los compradores iniciales. Arm, además, no lo plantea como un experimento marginal, sino como una ampliación histórica de su negocio desde el licenciamiento hacia el silicio en producción.
La importancia del movimiento no está solo en que Arm fabrique un chip, sino en qué tipo de chip ha decidido fabricar. No ha intentado entrar por la puerta más obvia, la del gran acelerador que compite de tú a tú con Nvidia, sino por una mucho más inteligente: la del CPU especializado para la era de la inteligencia artificial agéntica. Arm sostiene que, a medida que la inteligencia artificial deja de limitarse a entrenar modelos y pasa a ejecutar agentes que razonan, coordinan tareas, lanzan herramientas, gestionan memoria y mueven datos entre aceleradores, vuelve a crecer el papel del procesador central. En su presentación, lo resume de forma casi provocadora: los agentes disparan la demanda de CPU porque alguien tiene que orquestar todo ese caos computacional.
No es un argumento vacío. Nvidia, de hecho, acaba de lanzar también Vera, su CPU «purpose-built for agentic AI», y la propia OpenAI lleva meses reforzando su estrategia de infraestructura con chips diseñados a medida junto a Broadcom. La señal es inequívoca: el futuro no es «sólo GPU», sino heterogéneo, con CPUs, GPUs, redes y memoria diseñadas como un sistema.
Desde un punto de vista técnico, el anuncio tiene bastante más sustancia de la que parece en una primera lectura. Arm afirma que su AGI CPU, fabricado por TSMC en 3nm, tendrá hasta 136 núcleos Arm Neoverse V3 por CPU, un TDP de 300W, 6GB/s de ancho de banda de memoria por núcleo con latencia inferior a 100ns, y densidades de hasta 8,160 núcleos por rack en aire o más de 45,000 en líquido. La compañía asegura además más del doble de rendimiento por rack frente a plataformas x86, y llega a hablar de hasta 10,000 millones de dólares de ahorro de CAPEX por gigavatio de capacidad de centro de datos. Obviamente, como siempre en este tipo de cifras, conviene distinguir entre los datos verificados independientemente y las afirmaciones del fabricante, pero lo relevante no es sólo el número: es la direccionalidad. Estamos viendo un procesador diseñado para maximizar densidad, eficiencia energética, utilización de aceleradores y comportamiento sostenido bajo carga, no para ganar benchmarks decorativos.
Aquí entra Meta, y su papel explica casi todo. La compañía dejó claro hace apenas unas semanas que su estrategia de infraestructura para inteligencia artificial es un «portfolio approach»: combinar chips propios, como sus MTIA, con silicio de múltiples socios, en ciclos de desarrollo cada vez más rápidos. Meta dice ya desplegar cientos de miles de MTIA para inferencia y trabajar en cuatro nuevas generaciones en los próximos dos años, y además, ha anunciado acuerdos plurianuales con AMD y con NVIDIA para alimentar su infraestructura. La alianza con Arm encaja perfectamente en esa lógica: no sustituye a sus chips propios ni a las GPUs externas, sino que añade una pieza especialmente eficiente para inferencia, control, coordinación y gestión del sistema. En otras palabras, Meta no está apostando por «el chip ganador», sino por una arquitectura diversificada en la que cada componente hace aquello para lo que resulta más eficiente. Y eso, a estas alturas, me temo que es probablemente la única estrategia racional.
Para los que conocen bien el sector, la pregunta realmente interesante no es si el chip de Arm tendrá éxito comercial inmediato, sino qué implica para el ecosistema de Arm. Porque Arm ya no solo compite contra Intel y AMD en el servidor tradicional: ahora también se acerca peligrosamente a sus propios clientes más sofisticados, desde AWS Graviton hasta Azure Cobalt, Google Axion o incluso la línea Vera de Nvidia, todos basados en tecnología Arm. Y, sin embargo, muchos de ellos aplauden públicamente el lanzamiento. ¿Por qué? Porque esta aparente contradicción tiene una lógica industrial poderosa: un Arm más fuerte en centros de datos acelera la estandarización del software, mejora las herramientas, profundiza la optimización del ecosistema y empuja a todo el sector hacia más volumen. AWS, por ejemplo, recuerda que la mayoría de la nueva capacidad de cómputo que añadió a su flota en 2025 ya estaba impulsada por Graviton, y sostiene que Arm ha sido clave en ese cambio. Básicamente, aunque Arm invada parte del terreno de sus clientes, también puede hacer más grande el mercado en el que juegan todos.
Eso no elimina el riesgo político del movimiento. La neutralidad de Arm era uno de sus grandes activos estratégicos, y llevaba tiempo erosionándose. Reuters ya había adelantado en 2024 y 2025 que la compañía estudiaba fabricar chips, chiplets, placas e incluso sistemas completos, y que buscaba elevar márgenes vendiendo productos de mayor valor añadido. Visto con perspectiva, el AGI CPU no es una improvisación de última hora, sino la culminación de una hoja de ruta clara: Arm quiere capturar una parte mayor del valor que genera su ecosistema y dejar de limitarse a cobrar peajes por propiedad intelectual. Es una ambición comprensible, pero delicada: cuanto más éxito tenga como proveedor de silicio terminado, más dudas despertará entre clientes que hasta ahora la veían como una base neutral sobre la que construir.
También conviene entender el trasfondo económico. Durante años, el dominio de x86 en el centro de datos se sostuvo por inercia, compatibilidad y un ecosistema enorme. Pero la era de la inteligencia artificial ha cambiado la ecuación. Cuando la electricidad, la refrigeración, la densidad por rack y la utilización real del acelerador se convierten en variables existenciales, la eficiencia deja de ser una virtud sin más y pasa a ser una condición de supervivencia. AWS presume de que sus instancias Graviton cuestan hasta un 20% menos que las equivalentes x86 y pueden usar hasta un 60% menos de energía para el mismo rendimiento. Arm, por tanto, no entra en el mercado diciendo «nuestro chip es bonito», sino «nuestro chip puede mejorar la economía completa del centro de datos». Y en un mundo en el que OpenAI, Meta, Amazon, Microsoft o Google están comprometiendo gigavatios enteros de capacidad, eso pesa mucho más que cualquier narrativa publicitaria.
¿Mi impresión? Que este movimiento no debe leerse como el nacimiento de un nuevo competidor más en la guerra de los chips, sino como algo bastante más relevante: el paso de Arm desde ser una arquitectura hacia convertirse en una plataforma industrial completa. Si le sale bien, no venderá solo licencias ni un puñado de CPUs, sino una especie de patrón de referencia para la infraestructura de inteligencia artificial eficiente: procesadores, diseños de sistema, integración con memoria, software optimizado y una ruta de adopción más rápida para quienes no pueden permitirse crear un Graviton o un MTIA desde cero. Si le sale mal, habrá deteriorado la confianza de sus clientes históricos sin lograr masa crítica como fabricante. Pero incluso en ese escenario, la dirección del viaje ya es irreversible. El mensaje que deja el anuncio es claro: en la inteligencia artificial, el poder ya no está solo en quien entrena el modelo más grande, sino en quien controla mejor la pila completa, desde el software hasta el silicio. Y Arm acaba de decidir que ya no quiere limitarse a poner los ladrillos: quiere diseñar también el edificio entero.


Bienvenida la bendita competencia,… aunque la promueva Meta.