La IA como la electricidad: Altman quiere cobrar por tokens, no por suscripción

Share

Sam Altman lleva meses repitiendo la misma metáfora. La inteligencia artificial debería funcionar como la electricidad: la necesitas, la enciendes, pagas a fin de mes. En un evento reciente en Washington DC, volvió a enmarcar así el futuro de OpenAI, pero esta vez el contexto lo convierte en algo más que una idea atractiva: es la justificación de un modelo de negocio que la empresa necesita con urgencia.

La comparación no es inocente. OpenAI proyecta gastar 17.000 millones de dólares en 2026, casi el doble que el año anterior, mientras sigue operando con pérdidas a pesar de haber superado los 13.000 millones de ingresos anuales en 2025. El modelo de suscripción plana (los 20 dólares mensuales de ChatGPT Plus) no escala bien cuando la infraestructura que lo soporta crece a este ritmo.

¿Qué cambia con el cobro por tokens?

Un token es la unidad mínima de procesamiento de un modelo de lenguaje: cada palabra, cada fragmento de consulta que envías se convierte en tokens que el modelo procesa. Ya existe en los planes API de OpenAI para desarrolladores. Lo que Altman propone es llevar esa lógica al consumo masivo.

IA para el Resto de Nosotros

La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.

→ Inscríbete hoy 🚀

En la práctica, esto significa:

  • Un usuario casual paga por lo que realmente usa, sin desperdiciar en una suscripción infrautilizada.
  • Una empresa con picos de demanda paga más en meses de alta actividad y menos cuando hay quietud.
  • Los agentes de IA autónomos —que procesan tareas largas en segundo plano— tienen un perfil de consumo radicalmente distinto al de un chat interactivo, y la facturación lo reflejaría.

Por qué OpenAI necesita esto ahora

La analogía con la electricidad no es casual: sirve para justificar los megaproyectos de centros de datos. Si la IA es un bien básico universal, necesita “centrales eléctricas” equivalentes. OpenAI ya está comprometida con más de 1,4 billones de dólares en infraestructura, financiada mediante rondas sucesivas que la valoran cerca de los 830.000 millones.

Lisa Su, CEO de AMD, estimó en el CES 2026 que el mundo necesitará más de “10 yottaflops” de cómputo en los próximos cinco años —10.000 veces la capacidad de IA de 2022— para satisfacer esa demanda masiva. El número ilustra el tamaño del problema: la infraestructura para cobrar como un servicio de utilities requiere invertir como una utilities, con capital y plazos que ninguna startup tecnológica había tenido que asumir antes.

El verdadero problema: ¿quién paga realmente?

La metáfora de la electricidad tiene una trampa que el artículo de Xataka señala con precisión: las utilities son servicios regulados, con tarifas supervisadas, acceso universal garantizado por ley y gobiernos que intervienen cuando el precio sube. La IA, por ahora, no tiene nada de eso.

Si OpenAI logra posicionarse como proveedor de un bien esencial y cobra por uso sin competencia ni regulación efectiva, el escenario se parece más al de un monopolio de recursos que al de una utility democrática. El propio Altman lo insinúa cuando advierte que sin suficiente infraestructura, el precio de la “inteligencia” se disparará y se convertirá en un privilegio para los más ricos.

Lo que la comparación con la electricidad no incluye es el regulador. Y esa ausencia es exactamente la que convierte una metáfora biensonante en una decisión de negocio muy concreta: cobrar más, a más gente, de forma más granular, mientras el mercado sigue sin un árbitro claro.

Por qué importa para quien usa IA hoy

El cambio de modelo tiene implicaciones prácticas inmediatas. Si tu empresa usa ChatGPT o Claude para tareas repetitivas —resúmenes, atención al cliente, análisis de documentos— el costo mensual dependerá de cuánto consumas, no de una tarifa fija predecible. Presupuestar IA se parece cada vez más a presupuestar AWS: sin control activo, las facturas escalan.

Para los que construyen productos sobre APIs de IA, la transición ya está ocurriendo. El desafío ahora es diseñar aplicaciones eficientes en tokens, no solo funcionales. Como con la energía, la eficiencia empieza a importar económicamente, no solo técnicamente.

El modelo por consumo es inevitable a escala. La pregunta es quién fija las reglas de ese mercado cuando la demanda ya no tiene vuelta atrás.


Fuentes

Leer más

Otras noticias