Durante meses, el analista Ben Thompson mantuvo una posición matizada: sí, la IA podría ser una burbuja, pero sería una burbuja buena, de esas que dejan infraestructura útil al estallar. Como la burbuja de las punto-com que, al desinflarse, dejó las fibras ópticas que hicieron posible el streaming. Ese marco era razonable, pero Thompson lo acaba de desechar. Y lo hizo justo el día antes del GTC 2026 de NVIDIA.
Su argumento es concreto: no estamos en una burbuja. Y no porque sea optimista, sino porque la lógica económica que define las burbujas —inversión que supera la demanda real— simplemente no se cumple aquí. La demanda real supera la capacidad instalada, y esa brecha no para de crecer.
¿Qué cambió exactamente?
Thompson describe tres saltos que transformaron la IA de promesa en infraestructura.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀El primero es el que todos conocemos: ChatGPT. Noviembre de 2022. El problema de ese modelo era doble: se equivocaba con frecuencia y, cuando no sabía algo, alucinaba con una seguridad inquietante. Útil, pero requería supervisión constante. Era un juguete extraordinario, no una herramienta de confianza.
El segundo salto llegó en septiembre de 2024, con el modelo o1 de OpenAI. Por primera vez, el modelo razonaba antes de responder. En vez de soltar lo primero que se le ocurría, evaluaba su respuesta, consideraba alternativas, corregía. El resultado fue una IA significativamente más fiable. El precio: mucho más cómputo. Los modelos de razonamiento consumen entre 5 y 20 veces más tokens que los modelos directos. Eso disparó la demanda de infraestructura justo cuando los escépticos decían que estaba sobreinvertida.
El tercer salto es el que estamos viviendo ahora: los agentes. Claude Code, Codex y sus derivados demostraron a finales de 2025 que los agentes de IA dejaron de ser una promesa para convertirse en algo que realmente funciona. Una persona puede darle instrucciones a un agente que trabaja durante horas, verifica sus propios resultados y corrige errores sin intervención humana. Eso no es automatización incremental. Es una reconfiguración de lo que puede hacer una sola persona o una empresa pequeña.
El argumento más incómodo: no necesitas a todos
La lógica convencional de las plataformas tecnológicas asumía que para generar impacto económico real se necesitaba adopción masiva. Miles de millones de usuarios. Eso es lo que hizo viable YouTube, Instagram, WhatsApp. Pero los agentes de IA rompen esa lógica.
Una sola empresa, con un equipo pequeño y visión estratégica clara, puede ahora controlar miles de agentes simultáneamente ejecutando tareas complejas. No hace falta que todo el mundo use IA para que la demanda de cómputo se dispare. Basta con que la gente suficiente la use de forma intensiva. Las grandes organizaciones que llevan décadas acumulando capas de gestión para escalar operaciones van a encontrarse compitiendo con estructuras radicalmente más pequeñas y eficientes.
Thompson lo dice directamente: la pregunta que se harán las empresas ya no es si contrataron demasiado para el mundo pre-IA, sino si contrataron demasiado para el mundo post-IA.
Lo que el análisis no resuelve
Aquí es donde vale la pena ir más allá de Thompson, porque su análisis tiene puntos ciegos relevantes.
El primero: asumir que la demanda de cómputo seguirá creciendo indefinidamente presupone que los costos de inferencia no bajarán lo suficientemente rápido como para cambiar el cálculo. Pero estamos viendo exactamente eso. Los tokens chinos son ya 50 veces más baratos que los equivalentes occidentales, y esa presión no desaparece. DeepSeek demostró en enero de 2025 que se podían obtener capacidades de frontera con una fracción del cómputo. Si los costos colapsan, la demanda de infraestructura también puede desacelerarse.
El segundo punto ciego: el análisis describe la economía desde la perspectiva de los hiperescaladores —Microsoft, Google, Amazon, Meta— que están añadiendo capacidad porque les supera la demanda. Pero esa narrativa es también la que conviene a NVIDIA, que vende los chips, y a los mismos hiperescaladores, que quieren justificar inversiones astronómicas ante sus accionistas. Hay quienes señalan que es solo una fracción de la economía la que realmente impulsa toda esta narrativa de crecimiento.
El tercero: Thompson habla de “empresas unipersonales con miles de agentes empleados” como si ese modelo ya fuera generalizado. En realidad, estamos en las etapas tempranas. Los inversores ya exigen ROI demostrado, no promesas. La presión por mostrar resultados reales también puede moderar la euforia.
Por qué importa este cambio de posición
Ben Thompson no es un analista cualquiera. Es probablemente la voz más influyente en el análisis de estrategia tecnológica en el mundo anglosajón. Que alguien con ese perfil —alguien que había argumentado durante meses a favor de la narrativa de la burbuja— cambie de posición en el umbral del GTC de NVIDIA es significativo.
No porque tenga razón. Sino porque el argumento que usa para cambiar de posición es distinto al hype habitual. No habla de adopción de consumidores, no habla de benchmarks de modelos, no habla de demos impresionantes. Habla de economía de agentes: una persona controlando miles de agentes no necesita mercado masivo para generar demanda masiva de cómputo. Esa es una tesis estructural, no un argumento de momentum.
Si Thompson tiene razón, lo que viene no es el pinchazo de una burbuja sino una transición permanente en cómo se organiza el trabajo y qué escala puede alcanzar un equipo pequeño. Si se equivoca, aun así habrá dejado algo útil: el lenguaje para entender por qué esta vez, si hay burbuja, se verá diferente a todo lo anterior.

