68% de empresas ya paga un 10% más de electricidad por la IA

Share

El 68% de las empresas ya vio cómo sus costos energéticos subieron más del 10% en los últimos doce meses por culpa de la IA. El 97% espera que eso empeore. Y el 100% de los ejecutivos encuestados cree que gestionar el consumo energético será una métrica de negocio crítica en los próximos dos años. Estos datos vienen de una encuesta de MIT Technology Review Insights a 300 ejecutivos realizada en diciembre de 2025, y retratan un problema que muchas empresas todavía no saben cómo atacar.

La razón es simple de entender, aunque difícil de resolver: los centros de datos que corren modelos de IA consumen cantidades de electricidad que ya no se pueden ignorar en un presupuesto.

¿Cuánta electricidad consume la IA hoy?

El informe de MIT Technology Review Insights arranca con un dato que impone: los centros de datos en EE.UU. consumieron aproximadamente el 4% de la electricidad nacional en 2024. Las proyecciones del Departamento de Energía estadounidense sugieren que esa cifra podría alcanzar el 12% en 2028.

Para dimensionarlo: un solo centro de datos de 100 megavatios consume tanta electricidad como 80.000 hogares estadounidenses. Y los centros de datos que se construyen hoy ya están diseñando para escala de gigavatio —suficiente para alimentar una ciudad mediana.

Loudoun County, Virginia, que antes era conocido por sus praderas y su proximidad a Washington DC, ahora tiene la mayor concentración de centros de datos del planeta. La demanda es tan aguda que el Aeropuerto Internacional Dulles está construyendo la instalación solar más grande en un aeropuerto de EE.UU. para intentar mantener el ritmo.

Los cinco hallazgos clave del informe

  • Prioridad universal: El 100% de los ejecutivos espera que la capacidad de medir y gestionar el consumo energético se convierta en una métrica importante de negocio en los próximos dos años
  • Costos ya impactados: El 68% reporta aumentos de costos energéticos del 10% o más en los últimos 12 meses por cargas de trabajo de IA y datos
  • El problema crece: El 97% anticipa que el consumo energético relacionado con IA aumentará en los próximos 12-18 meses
  • Mayor amenaza identificada: El 51% clasifica los costos en alza como el mayor riesgo energético para sus iniciativas de IA, por encima de la disponibilidad de energía o los riesgos regulatorios
  • Acciones en marcha: El 74% está optimizando infraestructura existente; el 69% se asocia con proveedores de nube más eficientes energéticamente; el 61% implementa programación de cargas de trabajo de IA

¿Qué es la “inteligencia energética” y por qué la necesitas?

El término que introduce el informe —energy intelligence, inteligencia energética— se refiere a entender dónde, cuándo y por qué se consume energía, y usar esa información para optimizar operaciones y controlar costos. En la práctica, significa tener visibilidad sobre qué procesos de IA son más costosos en términos energéticos y cuándo conviene ejecutarlos.

Por ejemplo, programar entrenamientos de modelos para las horas de menor demanda eléctrica puede reducir costos significativamente. O elegir regiones donde la electricidad proviene de fuentes renovables y es más barata. O identificar qué llamadas a APIs de IA realmente aportan valor versus cuáles se pueden optimizar o eliminar.

Es una disciplina que la mayoría de las organizaciones está apenas comenzando a desarrollar, según el informe. El problema es que muchos equipos de tecnología no tienen cultura de tracking energético —ese ha sido históricamente el dominio de operaciones y facilities, no de ingeniería de software.

El problema estructural: infraestructura de ayer, deuda de mañana

El informe describe una tensión que ya es visible en noticias recientes: la infraestructura de centros de datos se construye con velocidad récord para satisfacer la demanda de IA, pero la red eléctrica no crece al mismo ritmo. El resultado son cuellos de botella energéticos que ya empiezan a frenar algunos proyectos de expansión.

Esta dinámica tiene implicaciones directas para empresas que dependen de infraestructura cloud para sus modelos. Si los grandes hyperscalers tienen problemas de capacidad energética, eso impacta disponibilidad, precios y latencias. Ya vimos cómo Eridu AI levantó $200M para resolver el cuello de botella de red dentro de los data centers, y cómo Jensen Huang describió en Davos la IA como un proyecto que necesita billones de inversión en infraestructura —energía incluida.

Por qué importa

Durante años, “optimización de costos de IA” significó elegir el modelo adecuado, reducir llamadas a APIs o comprimir prompts. Eso sigue siendo válido, pero ahora hay una variable nueva en la ecuación: la electricidad.

El informe de MIT es un termómetro del momento: las empresas sienten el impacto pero la mayoría no tiene aún los procesos para gestionarlo sistemáticamente. El 61% implementa programación de cargas de trabajo, pero eso es solo la capa más visible. La inteligencia energética completa implica tener datos granulares de consumo, vincularlos a outputs de negocio y tomar decisiones de arquitectura en función de ese análisis.

Las empresas que desarrollen esa capacidad ahora tienen una ventaja competitiva concreta: no solo en costos, sino también en términos regulatorios, ya que la huella de carbono de las operaciones de IA es cada vez más escrutada por reguladores en Europa y está empezando a serlo en América Latina.

La IA más sostenible no es la que consume menos por definición —sino la que sabe exactamente cuánto consume y por qué.


Fuentes

Leer más

Otras noticias