Nvidia ve US$1 billón y baja el costo real de la IA

Share

NVIDIA no solo volvió a hablar de cifras obscenas en GTC 2026. Puso sobre la mesa una idea más importante: si Blackwell y Vera Rubin cumplen lo prometido, el cómputo para IA entra en otra curva de costo. Y eso no es una buena noticia solo para Wall Street: cambia qué productos pueden existir, cuánto cuesta servirlos y quién puede competir.

Jensen Huang dijo que ve al menos US$1 billón en ingresos entre 2025 y 2027 para esta nueva etapa. La cifra suena a slogan de conferencia, sí, pero detrás hay algo más concreto: una cadena de suministro que por fin se expande, racks que ya se venden en millones de dólares y una nueva generación de hardware que promete procesar tokens mucho más barato. Si construyes sobre IA, ese detalle importa más que el titular bursátil.

Qué anunció NVIDIA y qué datos sí cambian la conversación

El ángulo fácil es quedarse con el número redondo. El útil es mirar los datos operativos. Según la cobertura de GTC 2026 de NVIDIA y el análisis publicado por Ecosistema Startup, la compañía cerró su año fiscal 2026 con US$215.900 millones en ingresos, de los cuales US$193.700 millones vinieron del negocio de data center. Ya no estamos hablando de una empresa de GPUs para gaming con un negocio enterprise al lado: estamos hablando de infraestructura crítica de la economía digital.

IA para el Resto de Nosotros

La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.

→ Inscríbete hoy 🚀

La secuencia también importa. Blackwell es el presente inmediato del boom de inferencia y entrenamiento; Vera Rubin es la siguiente plataforma pensada para llevar esa economía a otra escala. NVIDIA afirmó que Vera Rubin ofrece hasta 50 veces mejor rendimiento por vatio que Blackwell en ciertas cargas y que puede reducir el costo de procesamiento de tokens hasta 10 veces. Esa combinación es la verdadera noticia.

Hay además señales de que esto no se queda en promesa de roadmap:

  • Ingresos proyectados: Blackwell y Vera Rubin combinadas apuntan a unos US$500.000 millones en 2026, aproximadamente el doble interanual.
  • Precio del hierro: los racks GB200 NVL72 se mueven en el rango de US$2 a US$3 millones por unidad.
  • Calendario: la producción masiva de Vera Rubin está prevista para la segunda mitad de 2026.
  • Cuello de botella: TSMC planea llevar CoWoS-L a 120.000-150.000 obleas mensuales hacia fines de 2026, alivianando uno de los frenos más serios del ciclo anterior.

En otras palabras: no es solo que NVIDIA diga “viene algo enorme”. Es que, como ya cubrimos en nuestro repaso de GTC 2026, la compañía está amarrando hardware, software, networking y diseño de fábricas de IA como un solo sistema. Y eso sube la barrera de entrada para competirle a NVIDIA, pero también baja la barrera de costo para construir sobre su stack.

Lo estructural: la IA deja de premiar solo al que entrena y empieza a premiar al que sirve

Durante dos años, gran parte del relato de IA estuvo centrado en entrenamiento: quién tenía más GPUs, quién podía preentrenar modelos más grandes, quién recaudaba más para seguir quemando capital. Ese ciclo no desaparece, pero ya no explica todo. Huang insistió en GTC en que la inferencia es el nuevo centro de gravedad. Tiene sentido: una vez que los modelos existen, el negocio real es correrlos millones de veces al día.

Eso cambia la economía de producto. Cuando el costo por token cae de forma agresiva, aparecen categorías que antes eran inviables: agentes que trabajan más tiempo, flujos multimodales persistentes, software que observa y actúa en segundo plano, automatizaciones empresariales que antes no cerraban por margen. La pregunta deja de ser “¿puedo usar IA?” y pasa a ser “¿qué puedo hacer ahora que servir IA cuesta menos?”.

También cambia la competencia entre nubes y proveedores. No es casualidad que Microsoft haya validado antes que nadie el rack Vera Rubin NVL72, como contamos en este artículo sobre Azure y Vera Rubin. El hyperscaler que consiga acceso antes, mejor despliegue y mejores márgenes de inferencia puede trasladar parte de esa ventaja al mercado. Para startups, eso termina afectando pricing, latencia y capacidad de iterar.

  • Punto clave: si cae el costo marginal de inferencia, sube el número de casos de uso rentables.
  • Punto clave: el ganador ya no es solo quien tiene el mejor modelo, sino quien orquesta mejor el sistema completo.
  • Punto clave: la ventaja se desplaza desde “tener acceso a IA” hacia “diseñar productos nativos para una inferencia barata y abundante”.

Eso no significa que el mercado se democratice mágicamente. De hecho, pasa lo contrario en la capa de infraestructura: el capex sigue concentrándose en pocos actores, los racks siguen siendo prohibitivos y la cadena de suministro sigue siendo frágil. Pero en la capa de aplicación sí aparece una ventana real. No necesitas comprar el rack de US$3 millones; necesitas entender que alguien va a absorber esa inversión para ofrecerte cómputo más barato y más abundante.

Qué deberían hacer founders y builders con esta señal

La lectura floja es pensar “genial, en dos años todo será más barato”. La lectura útil es ajustar decisiones hoy. Si tu producto depende fuertemente de inferencia, esta hoja de ruta debería entrar ya en tu planificación financiera y de arquitectura. No para apostar ciegamente a que NVIDIA cumplirá todo, sino para modelar escenarios más agresivos de reducción de costos.

Primero, vale la pena auditar dónde estás gastando de verdad. Muchas startups siguen mirando solo el costo de adquisición de usuarios o el sueldo del equipo, cuando el costo variable de IA ya les está comiendo el margen. Si más del 20%-30% de tu costo por usuario depende de inferencia, Blackwell y Vera Rubin no son noticias lejanas: son parte de tu unit economics.

Segundo, conviene rediseñar roadmap. Hay productos que hoy se sienten “demasiado caros para escalar” y por eso se recortan artificialmente: menos contexto, menos memoria, menos multimodalidad, menos frecuencia, menos autonomía. Si el cómputo cae en serio, varios de esos límites dejan de ser estructurales y pasan a ser temporales. Eso favorece a quien tenga claridad de producto, no solo a quien espere que el proveedor le baje la tarifa.

Tercero, hay una oportunidad táctica en no quedarse pegado a la narrativa del modelo. Mientras todos miran benchmarks, el dinero real se está yendo a infraestructura, eficiencia y despliegue. No es casualidad que en descubre.ai estemos viendo cada vez más señales de ese cambio, desde la expansión de contratos gigantes de infraestructura para IA hasta el negocio creciente de enfriar esos data centers.

Y sí, hay riesgos. Si la tesis de demanda se enfría, si los hyperscalers frenan capex o si las mejoras reales no son tan lineales como promete marketing, la corrección puede ser brutal. Pero ese riesgo es para el valor financiero de NVIDIA. Para founders, el riesgo más serio es otro: diseñar productos como si el costo de inferencia fuera estable, cuando probablemente no lo será.

Por qué importa

Lo importante de este anuncio no es que Jensen Huang haya pronunciado la palabra “trillón”. Lo importante es que la infraestructura de IA está dejando de ser una etapa experimental para convertirse en una utility industrial con una velocidad de mejora que empieza a afectar productos, pricing y competencia. Si construyes software, esto se parece menos a una keynote y más a una bajada futura del costo de electricidad: no sale en tu interfaz, pero reordena todo lo que puedes enchufar.

La ventaja no se la va a llevar quien más admire a NVIDIA, sino quien lea antes el cambio de régimen. Los próximos ganadores no necesariamente entrenarán el mejor modelo. Van a ser los que sepan construir negocios en un mundo donde correr inteligencia sea muchísimo más barato que hoy.


Fuentes

Leer más

Otras noticias