Arm Holdings lleva más de 35 años siendo el “Suiza” del chip: diseña arquitecturas, vende licencias, y cobra regalías mientras sus clientes —Apple, NVIDIA, Amazon, Google— fabrican el hardware. Este martes, ese modelo terminó. El CEO Rene Haas presentó en San Francisco el primer CPU diseñado y fabricado por Arm, y lo llamó el AGI CPU.
La noticia no es solo un lanzamiento de producto. Es un cambio de modelo de negocio con consecuencias directas para el ecosistema de infraestructura de IA, y llega en el momento exacto en que los agentes de IA empiezan a exigir una clase de hardware diferente al que dominó la era de los LLMs.
¿Qué es exactamente el ARM AGI CPU?
Técnicamente: un procesador de 136 núcleos Neoverse V3, construido sobre el proceso de 3 nm de TSMC, con un TDP de 300 vatios. Distribuido en dos dies, tiene 2 MB de caché L2 por núcleo y 128 MB de caché de sistema compartida (SLC). Para la memoria, soporta 12 canales DDR5 a hasta 8.800 MT/s, con un ancho de banda agregado de 825 GB/s —lo que equivale a 6 GB/s por núcleo a latencias por debajo de 100 nanosegundos. En conectividad: 96 lanes de PCIe 6.0 y soporte para CXL 3.0.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀En densidad de rack, los números son considerables. La versión air-cooled llega a 8.160 núcleos por rack. La versión liquid-cooled —42 servidores de ocho nodos cada uno— alcanza 45.696 núcleos por rack, más del doble que el Vera ETL256 de NVIDIA, que llega a 22.528 núcleos en configuraciones similares.
Arm afirma que el chip entrega más del doble de rendimiento por rack en comparación con plataformas x86, y apunta explícitamente a cargas de trabajo de IA agentiva: no es un procesador para entrenar modelos ni para ejecutar inferencia directa de LLMs (eso lo hacen las GPUs), sino para gestionar la orquestación, el razonamiento coordinado, el movimiento de datos y los bucles de código que requieren los sistemas de agentes autónomos.
Por qué ahora, y por qué importa
La justificación de Arm es técnica pero también estratégica. Durante la era del hype de LLMs, el protagonismo fue de las GPUs: NVIDIA acaparó el mercado, los hyperscalers construyeron sus propios aceleradores, y la CPU quedó en segundo plano. Pero el modelo está cambiando.
Los sistemas agentivos —como OpenClaw, Claude Code o cualquier pipeline de múltiples agentes— no solo necesitan GPU para ejecutar el modelo. Necesitan CPU para coordinar, escribir y ejecutar código, gestionar contexto, y facilitar el aprendizaje por refuerzo que alimenta la siguiente generación de modelos. Mohamed Awad, vicepresidente ejecutivo de Cloud AI en Arm, lo resumió directamente: “Creemos que la CPU va a ser fundamental para lograr AGI eventualmente.”
Arm proyecta que los centros de datos que escalen aplicaciones agentivas van a necesitar más de cuatro veces la capacidad CPU actual por gigavatio de energía. Ese es el mercado que están atacando. Y para hacerlo, decidieron que vender licencias ya no era suficiente: necesitaban hardware propio.
Arm compite ahora con sus propios clientes
Esta es la parte incómoda del anuncio, y la que tiene más implicaciones a largo plazo. Apple, NVIDIA, Amazon (con Graviton), y Google (con Axion) son clientes de licencias de Arm. Todos fabrican chips basados en arquitecturas de Arm. El AGI CPU los convierte en competidores directos en el segmento de data center.
La comparación más obvia es con la Vera CPU de NVIDIA. Ambos chips están diseñados para la era agentiva. Ambos apuntan a ser el CPU dominante en racks de inferencia distribuida. La diferencia es que NVIDIA tiene integración nativa con sus GPUs Blackwell y su ecosistema CUDA, mientras que Arm tiene el argumento de la eficiencia energética, la densidad, y ahora un modelo de negocio que puede competir directamente en precio.
La presencia de Meta como cliente ancla del lanzamiento —la empresa que construye gigavatios de data centers y planea gastar cientos de miles de millones en infraestructura— le da credibilidad al chip antes de que esté en producción masiva. Pero Meta también está desplegando los Vera de NVIDIA y sus propios chips personalizados construidos con Broadcom. En este segmento, nadie apuesta a un solo proveedor.
Clientes y disponibilidad
Además de Meta, Arm confirmó compromisos de OpenAI, SAP, Cerebras, Cloudflare, F5, SK Telecom, Rebellions y Positron. En hardware, OEMs como ASRock Rack, Lenovo y Supermicro ya tienen sistemas disponibles para pedido. La disponibilidad general en producción está prevista para el segundo semestre de 2026.
El perfil de clientes es revelador. No son exclusivamente los hyperscalers de siempre: hay empresas de seguridad de red (F5, Cloudflare), un fabricante de chips de IA (Cerebras), operadoras de telecomunicaciones (SK Telecom), y un laboratorio de IA (OpenAI). Eso sugiere que Arm está apuntando a múltiples capas del stack de infraestructura, no solo al hardware puro de cómputo.
El ángulo que nadie está midiendo: la cadena de suministro de TSMC
Hay un elemento que merece atención separada. El AGI CPU usa el proceso N3 de TSMC, el mismo nodo que ya está bajo presión por la demanda de chips de IA de NVIDIA, Google, Amazon y Apple. Los chips de IA ya acaparan el 60% de la capacidad N3 de TSMC en 2026, y se proyecta que lleguen al 86% en 2027. Añadir la producción a escala del AGI CPU a esa ecuación agrega presión adicional sobre un recurso ya escaso.
Para startups y operadoras de infraestructura mediana, la disponibilidad real dependerá de qué lugar en la cadena de suministro puedan asegurar. Meta y OpenAI tienen contratos directos. Los que vengan después tendrán que negociar a través de los OEMs.
Por qué importa
El ARM AGI CPU no redefine la física de los chips. Lo que redefine es quién compite en qué mercado. Arm lleva décadas siendo el neutral que todos usan; ahora es un jugador con intereses propios en el hardware de data center. Eso cambia los incentivos de toda la cadena.
Para los hyperscalers que construyeron chips personalizados con licencias de Arm, la pregunta es si Arm les dará acceso a las mismas mejoras de arquitectura que usa en su chip propio. Para los fabricantes de CPUs alternativos como Ampere Computing —hasta ahora el único jugador independiente en ARM para data center— la aparición de Arm como competidor directo cambia el panorama radicalmente.
Y para quienes construyen infraestructura de IA, la noticia es que ahora hay una opción más en la batalla de CPUs para agentes. NVIDIA tiene Vera. Intel tiene Xeon con sus propios argumentos. Y ahora Arm tiene el AGI CPU. La carrera por definir el hardware de la próxima capa de IA recién empieza.

