Los chips de IA acaparan el 60% de TSMC N3 — 86% en 2027

Share

El estudio que nadie en la industria semiconductora quería ver ya está publicado. SemiAnalysis reveló que la inteligencia artificial consume ya cerca del 60% de toda la producción N3 de TSMC en 2026, y que esa cifra subirá al 86% en 2027. Translated al mundo real: si fabricas smartphones, CPUs o cualquier chip que no sea una aceleradora de IA, estás a punto de quedarte sin espacio en la fábrica más avanzada del planeta.

El análisis, titulado “The Great AI Silicon Shortage”, llega mientras cuatro familias de aceleradoras IA migran simultáneamente al nodo N3 de TSMC: la NVIDIA Rubin, la Google TPU v7/v8, la Amazon Trainium3 y la AMD MI350X. Todo al mismo tiempo, en el mismo proceso, en la misma fábrica. El choque de demanda resultante está dejando a TSMC literalmente sin espacio.

¿Qué es el N3 y por qué todos lo quieren al mismo tiempo?

El nodo N3 es el proceso de fabricación más avanzado de TSMC disponible en producción masiva. “Nodo” es la forma en que la industria describe el nivel de miniaturización: cuanto más pequeño, más transistores caben en el mismo espacio, lo que se traduce en más potencia de cómputo y menos consumo energético por operación.

Cada gigante tecnológico que construye aceleradoras de IA quiere N3 por la misma razón: sus modelos de lenguaje y razonamiento son enormes, requieren cantidades masivas de operaciones por segundo, y necesitan el chip más eficiente disponible. Google, Amazon, NVIDIA y AMD llegaron todos a la misma conclusión al mismo tiempo, firmaron contratos con TSMC para el mismo nodo, en el mismo año. El resultado es predecible y brutal.

TSMC no lo vio venir

La parte más llamativa del informe de SemiAnalysis es la evidencia de que TSMC no anticipó la magnitud de esta demanda. A pesar de que el mayor despliegue de infraestructura de cómputo en la historia arrancó a finales de 2022, la inversión de capital de TSMC no superó su pico anterior hasta 2025. “TSMC fue sorprendida con los pies planos”, concluye el análisis.

Construir una sala blanca para semiconductores no es como abrir una nueva línea de producción convencional. Requiere años de planificación, equipamiento especializado —como las máquinas de litografía ultravioleta extrema de ASML que cuestan cientos de millones de euros cada una— y personal técnico altamente especializado. SemiAnalysis estima que TSMC no podrá añadir suficiente capacidad para satisfacer la demanda durante al menos dos años más, incluso con miles de millones adicionales en inversión.

La situación es tan ajustada que la utilización efectiva del N3 se espera que supere el 100% en el segundo semestre de 2026. Para generar algo de capacidad marginal, TSMC ya está trasladando ciertas capas de proceso a otras fábricas.

Los smartphones pagan la factura

¿Quién cede espacio cuando la IA lo necesita todo? Los smartphones. SemiAnalysis describe a la industria móvil como la “válvula de alivio” de la actual escasez. La debilidad de la demanda de consumo —impulsada en parte por el alza de los precios de la memoria RAM que ya analizamos en profundidad— está liberando capacidad de fabricación que se redirige a las aceleradoras de IA.

Los números son concretos: reasignar el 25% de las obleas de smartphones en proceso N3 permitiría producir aproximadamente 700.000 GPUs Rubin adicionales de NVIDIA, o 1,5 millones de TPU v7 adicionales de Google. Es una transferencia masiva desde el mercado de consumo hacia la infraestructura de IA empresarial. Los teléfonos de gama alta que dependen de chips avanzados se volverán más caros o tendrán ciclos de actualización más largos, mientras sus wafers alimentan los datacenters de OpenAI, Google y Microsoft.

El problema del HBM: la memoria también escasea

Si crees que la escasez de capacidad lógica es el único problema, hay que sumar la memoria. Los aceleradores de IA modernos requieren HBM (High Bandwidth Memory), una memoria de alto ancho de banda que se apila verticalmente sobre el chip para entregar enormes cantidades de datos a la velocidad que necesitan los modelos. Piensa en ella como la RAM que conecta directamente al cerebro del chip, sin cuellos de botella.

El problema: producir HBM consume aproximadamente tres veces más capacidad de wafer que la DRAM convencional. Y con la transición al HBM4, esa diferencia podría escalar hasta casi cuatro veces. La misma demanda de IA que está acaparando los procesos lógicos está triturando la capacidad de memoria del planeta. No es un problema aislado sino sistémico, y explica por qué fabricantes de infraestructura como Nscale invierten miles de millones para asegurarse acceso GPU en Europa antes de que la escasez se agrave.

¿Quién sale ganando?

La respuesta de SemiAnalysis es que hay un ganador claro en la guerra de la cadena de suministro: TSMC misma, que puede cobrar precios premium por su capacidad escasa. Y también NVIDIA, cuya GPU Rubin para 2027 llegará en cantidades masivas gracias exactamente a estas inversiones. Jensen Huang describió este año en Davos la infraestructura de IA como un pastel de cinco capas, y la escasez de chips es precisamente la segunda capa que frena todo lo demás —desde modelos hasta aplicaciones—, como explicamos al detallar su visión de la industria.

La soberanía tecnológica también entra en juego: con toda la capacidad avanzada concentrada en TSMC (Taiwán) y con la demanda dominada por empresas estadounidenses, la pregunta sobre qué pasa si hay tensiones geopolíticas sigue sin respuesta. Algunos países llevan años intentando construir su propia capacidad de fabricación sin conseguirlo —China busca su propio ASML desde hace años— y la escasez de 2026 es un stress test de esa dependencia global.

Por qué importa

La IA está literalmente reordenando la cadena de suministro de la computación global. Cuando los cuatro principales fabricantes de chips de IA del planeta se pelean por el mismo nodo de fabricación, algo estructural está cambiando: la capacidad de cómputo para IA se ha convertido en el recurso más escaso y valioso de la economía digital.

Para cualquier empresa que planifique infraestructura de IA en los próximos dos años, el mensaje es directo: los chips que necesitas van a escasear y costar más. Los que están firmando contratos de compute hoy están asegurando acceso a un recurso que el mercado spot no va a poder proveer. Los que esperan, esperarán todavía más.


Fuentes

Leer más

Otras noticias