La carrera de la inteligencia artificial ha dejado de ser exclusivamente una competencia de algoritmos para convertirse en una de ingeniería eléctrica, logística y despliegue físico brutal. Con el anuncio de Colossus 2, xAI no solo busca superar a sus competidores en capacidad de cómputo, sino redefinir lo que se considera un nodo de entrenamiento a gran escala.
De la velocidad de Memphis al gigavatio
Colossus 1, levantado en apenas 122 días en Memphis, ya era un hito de ejecución. Con cerca de 200,000 GPUs NVIDIA H100/H200 y 30,000 unidades GB200 NVL72, se posicionó como el clúster coherente más grande del mundo. Sin embargo, Colossus 2 representa un salto cuántico: es el primer proyecto de datacenter de un gigavatio (1 GW).
Este nivel de consumo energético coloca a la infraestructura de xAI en una liga diferente. Mientras que los centros de datos tradicionales operan en el rango de los megavatios, un gigavatio implica una integración profunda con la red eléctrica y una capacidad de procesamiento que, según reportes de SemiAnalysis, permitirá entrenar modelos de frontera con una eficiencia y velocidad sin precedentes.
Aprende IA con nosotros
Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.
👥 Únete gratis 🚀Por qué importa
La construcción de Colossus 2 valida la tesis de que el rendimiento de los modelos sigue siendo, en gran medida, una función de la escala física. Al asegurar un gigavatio de potencia y una cadena de suministro masiva de chips GB200, xAI intenta cerrar la brecha con Google y Microsoft. No se trata solo de tener más chips, sino de ser capaces de alimentarlos y refrigerarlos en una sola ubicación física, reduciendo las latencias que plagan los entrenamientos distribuidos en múltiples sitios.
Este movimiento también subraya la geopolítica de la infraestructura, donde el acceso a la energía y al hardware de última generación define quién puede participar en la creación de la AGI.

