NVIDIA usó su GTC 2026 para anunciar que el mayor problema de la robótica no va a ser de datos. Va a ser de cómputo. Es una apuesta enorme — y define una estrategia clara: si puedes simular suficientemente bien, no necesitas recopilar datos reales. Necesitas más GPUs.
Para una empresa que vende GPUs, el argumento es conveniente. Pero hay evidencia real detrás.
¿Cuál era el problema “de datos” en robótica?
Entrenar un robot es complicado. A diferencia de un modelo de lenguaje, que puede aprender de billones de tokens de texto disponibles en internet, los robots aprenden de experiencias físicas: choques, intentos fallidos, correcciones. Recopilar esos datos requiere hardware real, tiempo real, y equipos de personas. Es lento y caro.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀Eso ha sido el cuello de botella central de la robótica con IA durante años. Los modelos de lenguaje y visión avanzaron a velocidad exponencial porque había datos abundantes. Los robots no.
La apuesta de NVIDIA: simulación a escala
En GTC 2026, NVIDIA presentó su argumento central: si la simulación física es suficientemente fiel a la realidad, los robots pueden entrenarse virtualmente sin perder capacidades reales. Y si el entrenamiento es virtual, la restricción ya no es tiempo ni hardware físico: es cómputo.
Eso juega directamente a favor de NVIDIA. La compañía presentó varias piezas de esta estrategia:
- Cosmos 3: un nuevo modelo que combina generación de mundos sintéticos, razonamiento visual y simulación de acciones. Básicamente: una forma de generar datos de entrenamiento robótico sintéticos a escala.
- GR00T N1.7 (y preview de N2): modelos de fundación para robots humanoides, disponibles con licencia comercial. GR00T N2 usa una arquitectura llamada “World Action Model” y, según NVIDIA, completa nuevas tareas en entornos desconocidos más del doble de veces que los mejores modelos actuales.
- Isaac Lab 3.0: entorno de entrenamiento acelerado por DGX, con el nuevo Newton Physics Engine 1.0 para simulación física más precisa.
- Omniverse NuRec: tecnología basada en 3D Gaussian Splatting que reconstruye situaciones reales de conducción para testing interactivo.
El mensaje combinado es claro: NVIDIA proporciona los chips, los modelos, las herramientas de simulación y la arquitectura de seguridad. Los socios construyen encima.
Quién ya está comprando el argumento
La lista de socios anunciados en GTC es llamativa. FANUC, ABB Robotics, YASKAWA y KUKA — que suman más de dos millones de robots instalados mundialmente — están integrando Omniverse e Isaac en sus soluciones de puesta en marcha. Para conducción autónoma, Uber lanzará en Los Ángeles un servicio robotaxi con infraestructura NVIDIA en 2027.
Pero el dato más interesante puede ser este: NVIDIA dice que el modelo Alpamayo 1.5 para conducción autónoma ha sido descargado por más de 100.000 desarrolladores desde su lanzamiento. No es solo hardware y acuerdos corporativos — hay una base de desarrolladores construyendo sobre estos cimientos.
Por qué importa: el modelo “data como subproducto del cómputo”
Si la tesis de NVIDIA se sostiene, cambia fundamentalmente quién puede competir en robótica. Hoy, tener datos reales es una ventaja competitiva enorme: las empresas que han desplegado robots en entornos reales (Amazon, Toyota, Tesla) acumulan experiencias que los newcomers no pueden replicar rápido.
Con simulación de alta fidelidad, esa ventaja se comprime. Una startup con acceso a clusters de DGX puede generar millones de horas de experiencia robótica virtual en días. El acceso a capital (para comprar cómputo) empieza a reemplazar el acceso a datos históricos.
Eso democratiza la entrada al mercado en teoría. En la práctica, el cómputo de NVIDIA sigue siendo caro, y la empresa que vende ese cómputo está definiendo las reglas del juego. Es una apuesta a que el mundo de la robótica dependa de NVIDIA de la misma forma que el cloud dependió de AWS.
La diferencia es que AWS no controlaba también el hardware físico de los servidores que vendía como servicio. NVIDIA controla chips, modelos, simuladores y frameworks de seguridad al mismo tiempo. Es una integración vertical que no tiene precedentes claros en tecnología.

