800 VDC: el cambio eléctrico que la IA obliga a los centros de datos

Share

Un rack de servidores de IA puede consumir tanta electricidad como 1.000 hogares. Eso no es una exageración: es el punto de partida de la crisis que está obligando a los centros de datos a replantear desde cero cómo distribuyen la energía. Y la respuesta que está emergiendo —con anuncios concretos en el GTC 2026 de NVIDIA— se llama 800 VDC: corriente directa de alta tensión.

Esto no es un debate técnico sobre qué tipo de corriente es “mejor”. Es un problema de física que tiene consecuencias económicas y medioambientales masivas, y que está llegando a su punto de quiebre precisamente ahora.

El problema invisible: demasiadas conversiones, demasiado desperdicio

La mayoría de los centros de datos del mundo funcionan con corriente alterna (AC), que es como llega la electricidad desde la red eléctrica. El problema es que los chips —los procesadores, las GPUs— necesitan corriente continua (DC) a baja tensión para funcionar. Ese viaje entre una forma de electricidad y otra es largo, ineficiente y costoso.

IA para el Resto de Nosotros

La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.

→ Inscríbete hoy 🚀

En un centro de datos tradicional, la electricidad recorre este camino antes de llegar a los chips: entra como AC de alta tensión (1 kV a 35 kV), se reduce con un transformador a baja tensión AC (480V o 415V), luego se convierte a DC dentro del sistema de alimentación ininterrumpida (UPS) para el almacenamiento en baterías, luego se convierte de nuevo a AC para su distribución dentro del edificio, y finalmente se convierte otra vez a DC de baja tensión (54V) en el servidor. Cinco o más conversiones. En cada una se pierde energía en forma de calor.

Según datos de DataCenter Knowledge, eliminar tres de esas conversiones mejora la eficiencia energética total en un 3% al 5% a escala de gigavatio. Eso puede representar decenas de millones de dólares en ahorro eléctrico. Y cuanto más grande sea el centro de datos —y los centros de datos de IA son cada vez más grandes— mayor el impacto.

¿Por qué esto importa ahora y no antes?

Porque la escala cambió radicalmente. Un rack de servidores tradicional consumía unos 10 kilowatts. Los racks de IA actuales están llegando a 100 kW, y los proyectados para los próximos años apuntan a 1 megawatt por rack. La diferencia es de dos órdenes de magnitud.

Esa diferencia hace que los problemas que antes eran manejables se vuelvan prohibitivos. Según IEEE Spectrum, que cubrió los anuncios del GTC 2026 esta semana, un rack de 1 MW con distribución AC podría requerir 200 kilogramos de cobre solo en las barras de distribución. Para un centro de datos de 1 gigawatt, estamos hablando de 200.000 toneladas de cobre. Eso no es viable —ni económica, ni logísticamente, ni medioambientalmente.

Los centros de datos ya consumen una fracción importante de la electricidad global, y el 68% de las empresas que usan IA ya reporta pagar un 10% más en su factura eléctrica. La tendencia solo va hacia arriba. Empresas como xAI llegaron a operar 41 turbinas de gas para alimentar su supercomputadora Colossus —una señal de que el modelo actual tiene límites físicos reales.

La solución: 800 VDC y por qué cambia las reglas

La arquitectura que NVIDIA propuso y varios fabricantes están implementando es directa: convertir la corriente alterna de la red eléctrica directamente a 800 voltios de corriente continua en el perímetro del centro de datos, y distribuir esa DC de alta tensión por todo el edificio. En el rack, convertidores DC-DC compactos bajan esa tensión para alimentar GPUs y CPUs.

¿Qué se gana? Luiz Fernando Huet de Bacellar, vicepresidente de ingeniería de Eaton, lo cuantifica: distribuir a 800 VDC en lugar de 415 VAC permite transmitir un 85% más de energía por el mismo cable. Eso es porque a mayor tensión, menor corriente necesaria para la misma potencia, y menor corriente significa menores pérdidas resistivas y conductores más delgados.

Los números consolidados que muestran Vertiv y Eaton: 45% menos de cobre, 5% de mejora en eficiencia energética, y 30% menos de costo total de operación a escala de gigawatt.

Quién se está moviendo ya

En el GTC 2026 de la semana pasada, los anuncios se multiplicaron. Vertiv presentó su ecosistema de 800 VDC diseñado para integrarse con las plataformas NVIDIA Vera Rubin Ultra Kyber —disponibilidad comercial en el segundo semestre de 2026. Eaton colaboró con NVIDIA para presentar su plataforma BEAM-Rubin DSX, con un transformador de estado sólido de media tensión como corazón del sistema. Delta lanzó racks de potencia in-row de 660 kW a 800 VDC con 480 kW de respaldo de baterías incorporado. SolarEdge trabaja en un transformador de estado sólido al 99% de eficiencia que se emparejará con un UPS DC nativo.

En China, según reportes de Omdia, ya existen centros de datos de alta tensión DC en operación. En América, la Iniciativa Mt. Diablo —una colaboración entre Meta, Microsoft y el Open Compute Project— está experimentando con distribución en rack a 400 VDC.

Chris Thompson, vicepresidente de tecnología avanzada de Vertiv, lo resume bien: “Si bien la distribución AC sigue profundamente arraigada, los avances en electrónica de potencia y las crecientes exigencias de la infraestructura de IA están acelerando el interés en arquitecturas DC.”

Los obstáculos que nadie quiere nombrar

La transición no es automática. Patrick Hughes, de la Asociación Nacional de Fabricantes Eléctricos (NEMA), señala que la industria necesita un ecosistema completo y coordinado: electrónica de potencia, protecciones, conectores, sensores y componentes seguros para mantenimiento, todos escalando juntos. Eso requiere reconvertir la capacidad de fabricación, expandir la cadena de suministro de semiconductores y materiales, y compromisos de demanda a largo plazo que justifiquen la inversión de capital.

Hoy, la mayoría de la innovación ocurre a 400 VDC. Los sistemas a 800 VDC son la vanguardia, y la industria está siendo cauta. Los centros de datos existentes —que son la mayoría— no se reconvierten de un día para otro. La infraestructura AC está “profundamente arraigada”, como dice Thompson.

Una ruta de transición práctica para el mediano plazo: mantener distribución AC a nivel de instalación para la infraestructura existente, y migrar a DC en las islas más densas de GPUs/IA donde los ahorros justifican la inversión.

Por qué importa

La transición de AC a DC en centros de datos es una de esas revoluciones de infraestructura que sucede debajo del umbral de visibilidad pública pero que tiene consecuencias en cadena. La magnitud del desafío es tal que incluso Blue Origin está explorando llevar centros de datos al espacio para aprovechar la energía solar y el vacío como refrigeración.

Pero en la Tierra, la batalla más inmediata es por la eficiencia eléctrica. Si los modelos de IA siguen escalando —y todo indica que lo harán— la infraestructura eléctrica que los alimenta tiene que escalar con ellos. El 800 VDC no es una optimización marginal: es el cambio de paradigma que hace físicamente posible la siguiente generación de fábricas de IA.

El silicio avanza rápido. La electricidad que lo alimenta, mucho menos.


Fuentes

Leer más

Otras noticias