La conferencia VLSI 2025 ha dejado claro que la carrera por la inteligencia artificial se está desplazando de los laboratorios de software a las plantas de manufactura de semiconductores. La viabilidad de los modelos de frontera en los próximos tres años no se decidirá solo en el código, sino en la capacidad de ejecutar arquitecturas como Intel 18A y resolver el cuello de botella de la memoria DRAM.
El nodo Intel 18A: costos y energía
Intel está apostando su futuro al nodo 18A. Los detalles revelados muestran que la implementación de Backside Power (alimentación por la parte trasera) no es solo una mejora de eficiencia, sino una necesidad estructural para manejar las densidades de corriente requeridas por los nuevos aceleradores de IA. Sin embargo, el costo de manufactura sigue siendo el factor determinante; la transición a este nodo exige una precisión en la fotolitografía EUV que estira los límites económicos de las fundiciones actuales.
El dilema de la memoria: 4F2 vs 3D DRAM
Mientras las GPUs aumentan su capacidad de cómputo, la memoria se ha convertido en el verdadero guardián del rendimiento. La industria se encuentra en una encrucijada entre optimizar el diseño 4F2 tradicional o dar el salto definitivo hacia la DRAM 3D. Este cambio es análogo a lo que ocurrió con la memoria NAND hace una década: la única forma de seguir escalando la densidad sin aumentar el consumo energético de forma prohibitiva es crecer verticalmente.
Aprende IA con nosotros
Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.
👥 Únete gratis 🚀Gemelos digitales y la soberanía técnica
La integración de Digital Twins desde el nivel atómico hasta la escala de la fábrica está permitiendo a empresas como Intel y TSMC predecir fallos de rendimiento antes de producir una sola oblea. En un contexto donde la infraestructura de IA ya es un asunto geopolítico, la capacidad de simular la producción masiva de chips es una ventaja estratégica que separa a los líderes del mercado de quienes simplemente ensamblan hardware ajeno.
Por qué importa
Sin el éxito del nodo 18A y la evolución de la DRAM, las leyes de escala de la IA se enfrentarán a un muro físico y económico. La optimización del hardware es el único camino para que el costo por inferencia siga bajando mientras la complejidad de los modelos sigue subiendo.

