Meta acelera sus chips MTIA: cuatro generaciones en dos años

Share

Meta quiere dejar de depender tanto de Nvidia y AMD, y acaba de mostrar su jugada más ambiciosa hasta ahora: lanzar cuatro generaciones de chips propios en apenas dos años. La familia MTIA —sigla de Meta Training and Inference Accelerator— ya no es un experimento lateral. Es una parte central de cómo Facebook, Instagram y los productos generativos de Meta piensan escalar en 2026 y 2027.

El anuncio importa por una razón simple: en la carrera por la IA ya no basta con tener buenos modelos. También necesitas controlar el fierro. Y ahí Meta está intentando hacer lo mismo que Google hizo con sus TPU: diseñar hardware a medida para bajar costos, asegurar suministro y optimizar tareas concretas en vez de depender siempre de GPUs generalistas.

¿Qué anunció exactamente Meta con sus chips MTIA?

Según Meta, la hoja de ruta incluye cuatro chips nuevos: MTIA 300, MTIA 400, MTIA 450 y MTIA 500. El primero ya está en producción y se usa para entrenamiento de sistemas de ranking y recomendación, es decir, la maquinaria que decide qué ves en Facebook e Instagram. Los otros tres están pensados sobre todo para inferencia generativa: correr modelos ya entrenados para responder prompts, generar imágenes o sostener funciones de IA en productos reales.

Hay un detalle clave: Meta dice que está desarrollando y desplegando estas generaciones a un ritmo de seis meses o menos, algo muy poco normal en semiconductores. Yee Jiun Song, vicepresidente de ingeniería de la compañía, explicó que los ciclos tradicionales de chips son demasiado lentos para el ritmo al que están cambiando las cargas de trabajo de IA. Traducido: si tardas dos años en diseñar un chip, cuando llega al data center quizás ya quedó desalineado con lo que tus modelos realmente necesitan.

La empresa también confirmó varios datos técnicos relevantes. Los chips fueron desarrollados con Broadcom, se apoyan en arquitectura abierta RISC-V y se fabrican con Taiwan Semiconductor Manufacturing Company (TSMC). WIRED añade que el MTIA 400 ya fue probado y que Meta lo describe como competitivo frente a productos comerciales líderes. CNBC, por su parte, reporta que cada rack del MTIA 400 incluirá 72 chips optimizados para inferencia.

Por qué Meta acelera ahora su propia ruta de silicio

La respuesta corta es costo, control y velocidad. Meta seguirá comprando hardware externo —de hecho acaba de cerrar acuerdos multimillonarios con Nvidia y AMD—, pero quiere que una porción creciente de sus cargas corra en silicio propio. Eso le permite recortar funciones innecesarias para sus casos de uso y diseñar chips mucho más ajustados a sus productos.

Esta lógica encaja con una tendencia más amplia. Hace unos días te contamos cómo la carrera por la soberanía en chips choca con una cadena de suministro global extremadamente concentrada. Meta no está persiguiendo soberanía nacional, claro, pero sí algo parecido a nivel corporativo: menos dependencia de proveedores externos en un mercado donde GPUs, memoria HBM y capacidad fab son recursos escasos y carísimos.

  • MTIA 300: ya está en producción y apunta a entrenamiento para ranking y recomendaciones.
  • MTIA 400: terminó su fase de pruebas y va camino al despliegue en data centers.
  • MTIA 450 y 500: llegarían en 2027 con más memoria HBM y foco en inferencia generativa.
  • Estrategia de portafolio: Meta no abandona Nvidia ni AMD; mezcla chips propios con silicio externo.

¿Puede Meta competir de verdad con Nvidia?

No en el sentido clásico. Meta no está tratando de vender un rival universal del H100 o del Rubin a todo el mercado. Está construyendo aceleradores específicos para sus propios flujos. Eso cambia completamente la comparación.

Un ASIC bien diseñado puede ser mucho más eficiente que una GPU generalista si el problema está bien definido. El costo es que pierdes flexibilidad. Por eso Meta insiste en una “estrategia de portafolio”: usar MTIA cuando sus workloads lo justifican y seguir comprando chips externos cuando necesita potencia más general o capacidad inmediata.

Además, hay señales de que esta hoja de ruta no nació sin tropiezos. Bloomberg reportó, vía Mercury News, que Meta venía reevaluando algunos proyectos más ambiciosos de entrenamiento tras dificultades de diseño en chips internos previos. El nuevo roadmap parece una versión más pragmática: iteraciones más rápidas, modularidad, y prioridad a inferencia antes que a entrenamiento de frontera.

Ese matiz es importante porque hoy el dinero no está solo en entrenar un gran modelo una vez. Está en servir millones o miles de millones de inferencias todos los días. Y ahí cada punto de eficiencia vale oro. Si Meta puede correr más consultas por watt, o gastar menos por recomendación y por prompt, el impacto financiero es gigantesco.

El cuello de botella no es solo el chip: también es la memoria

Otro dato revelador del reporte de CNBC es la preocupación por el suministro de HBM, la memoria de alto ancho de banda que se volvió crítica para cargas modernas de IA. Song dijo que Meta está “absolutamente preocupada” por ese abastecimiento, aunque aseguró que la empresa ya aseguró suministro para sus planes actuales.

Eso conecta con otra realidad incómoda del mercado: diseñar un chip propio no te libera mágicamente de la cadena global. Sigues necesitando fundiciones como TSMC, empaquetado avanzado y memorias producidas por un grupo pequeño de actores como Samsung, SK Hynix o Micron. Dicho simple: puedes controlar más piezas del rompecabezas, pero no todas.

Y si te interesa el trasfondo técnico, esta apuesta también muestra cómo RISC-V sigue ganando terreno como base abierta para nuevos diseños. No siempre significa rendimiento bruto superior —de hecho ya explicamos por qué RISC-V todavía enfrenta límites reales frente a x86 en ciertas tareas—, pero sí ofrece libertad de diseño que resulta muy atractiva para chips especializados.

Por qué importa

El anuncio de Meta confirma que la próxima gran batalla de la IA no será solo entre modelos, sino entre infraestructuras. Tener un buen chatbot ya no alcanza. El verdadero poder está en decidir qué chip corre cada carga, con qué memoria, en qué rack y a qué costo.

Para los usuarios comunes esto puede sonar lejano, pero termina afectando todo: cuán rápido responde una IA, cuánto cuesta sostener funciones generativas masivas y qué empresas quedan atrapadas pagando la renta eterna del hardware ajeno. Meta está apostando a que su escala justifica construir su propio camino. No reemplazará a Nvidia mañana, pero tampoco necesita hacerlo. Si consigue que una parte creciente de su negocio de IA corra sobre silicio propio, ya habrá ganado una ventaja enorme.

En otras palabras: la carrera por la IA ya no se define solo en el prompt. También se define en la placa.


Fuentes

Leer más

Otras noticias