OpenAI y Oracle frenan el Stargate de Texas: el datacenter que quedó obsoleto antes de terminar

Share

OpenAI y Oracle acaban de frenar la expansión de su mega-datacenter en Abilene, Texas. El campus de Stargate —uno de los más grandes del mundo— se queda en 1,2 gigavatios en vez de los 2 GW planeados. El motivo: la red eléctrica no llegará a tiempo, y mientras tanto los chips de IA ya están quedando obsoletos antes de encender siquiera el primer servidor.

Este no es un problema de Oracle nada más. Es el síntoma de una paradoja que define toda la carrera de infraestructura IA en 2026: construir un datacenter tarda años; los chips que lo van a equipar se vuelven outdated en meses.

¿Por qué se frenó la expansión del Stargate de Texas?

Según Bloomberg, OpenAI y Oracle tenían planes de llevar el campus de Abilene de 1,2 GW a 2 GW de capacidad. La negociación se cayó por dos razones concretas:

  • Red eléctrica atrasada: la disponibilidad del suministro eléctrico adicional se postergó más de un año, según reportó Interesting Engineering citando a ejecutivos de la iniciativa.
  • Pivote estratégico de OpenAI: la empresa prefiere invertir capacidad nueva en sitios distintos, orientados a los próximos chips Vera Rubin de Nvidia —la generación que sigue a Blackwell— en vez de seguir apostando por infraestructura atada a una arquitectura que ya está en su etapa de madurez.

Sachin Katti, responsable de compute en OpenAI, lo dijo públicamente en X: “Nuestro flagship Stargate es uno de los campus de datacenters de IA más grandes de EE.UU. Consideramos expandirlo, pero decidimos poner esa capacidad adicional en otras ubicaciones. Hoy tenemos más de media docena de sitios en desarrollo.”

Nvidia entra de mediador —y Meta podría ser el nuevo inquilino

Lo que pasa con el espacio no construido del campus es donde se pone interesante. Nvidia depositó 150 millones de dólares a Crusoe —el desarrollador del terreno— para asegurarse la capacidad que OpenAI y Oracle decidieron no usar. Según The Register, la intención de Nvidia es ofrecerle ese espacio a Meta como potencial nuevo arrendatario.

Si eso se confirma, significa que Zuckerberg podría estar construyendo en la misma tierra que Altman no quiso terminar de llenar. Una imagen que dice bastante sobre la velocidad con que se mueven los tableros de poder en la infraestructura IA.

El nudo gordiano: ¿cuánto tarda un datacenter vs. cada cuánto se renueva un chip?

Aquí está el problema de fondo que el analista Ecosistema Startup resume bien: un datacenter a escala de IA implica adquirir terrenos, negociar suministro eléctrico, tramitar permisos, instalar refrigeración y conectar fibra. Todo eso puede tardar entre 18 meses y 3 años desde la decisión hasta el primer servidor operativo.

Los chips de IA, en cambio, evolucionan mucho más rápido. Nvidia acaba de lanzar Blackwell, que ya tiene sucesor conocido (Vera Rubin) en roadmap para 2026. Si empiezas a construir un datacenter hoy diseñado para Blackwell, cuando abras las puertas podrías estar instalando la generación anterior.

Oracle lo está viviendo en carne propia:

  • $50.000 millones en deuda y equity que planea levantar en 2026 para financiar su expansión cloud
  • $10.000 millones de caja quemada solo en la primera mitad del ejercicio fiscal
  • Acciones a la baja: cayeron más de un 15% en el último año
  • El lado positivo: Jefferies mantiene Buy y señala que el backlog de ingresos contratados creció un 438% interanual, lo que sugiere que la demanda existe —el problema es la ejecución y el timing

El contrato de Oracle con OpenAI (300.000 millones de dólares proyectados durante su vigencia, 4,5 GW de capacidad comprometida) sigue técnicamente vigente. La expansión de Abilene es solo una parte del puzzle que no pudo armarse.

¿Qué significa esto para el ecosistema de infraestructura IA?

La narrativa dominante hasta ahora era que la demanda de infraestructura IA era tan descontrolada que cualquier proveedor cloud con datacenter nuevo tendría cola de clientes. Este episodio matiza esa imagen.

OpenAI no está esperando cualquier capacidad disponible: está siendo selectiva respecto a la arquitectura de chips que va a correr. Si el datacenter no puede alojar los próximos Vera Rubin en condiciones competitivas, no sirve. La diferencia entre construir para la generación de chips actual vs. la siguiente no es trivial: cambia el diseño de la refrigeración, la densidad de potencia por rack, las capacidades de networking interno.

El panorama general es que los ocho hyperscalers más grandes —Google, Amazon, Meta, Microsoft, Oracle, Tencent, Alibaba y Baidu— planean gastar colectivamente 710.000 millones de dólares en infraestructura IA en 2026. Pero ese gasto ya no es indiscriminado. La competencia ahora es entre quién construye más rápido y quién construye para los chips correctos.

Por qué importa

Para cualquier persona que trabaja en IA o evalúa proveedores cloud, este episodio debería ajustar algunas expectativas. Primero: que haya anuncios masivos de inversión en infraestructura no significa que la capacidad vaya a estar disponible cuando la necesitas. Segundo: el ciclo de renovación de chips es ahora una variable crítica en decisiones de infraestructura a largo plazo, y los grandes players lo están incorporando explícitamente en sus decisiones de dónde y cómo construir.

Oracle ya recortó miles de empleados para financiar su apuesta en datacenters. Ahora resulta que la apuesta más grande se trancó antes de ejecutarse. La pregunta real es si el modelo de negocio de construir infraestructura IA a esta velocidad —con estos costos de deuda y esta incertidumbre de chips— tiene sentido económico en el largo plazo. Por ahora, el mercado no está convencido.


Fuentes

Leer más

Otras noticias