Ai2 entrena robots en simulación y los lleva al mundo real

Share

Ai2 cree que una buena parte del futuro de la robótica no se va a entrenar en fábricas ni con horas infinitas de humanos manejando brazos robóticos. Se va a entrenar en mundos virtuales. Y la organización acaba de mostrar un argumento serio para sostener esa apuesta: su nueva familia de modelos MolmoBot logra transferir capacidades desde simulación al mundo real sin ajuste fino ni datos manuales del robot en producción.

Dicho simple: entrenaron robots con datos sintéticos y después esos robots funcionaron en tareas reales con objetos y entornos no vistos. Si la promesa aguanta, esto podría abaratar muchísimo el desarrollo de la llamada “IA física”, el nombre de moda para sistemas que no solo razonan, sino que actúan sobre el mundo.

¿Qué anunció exactamente Ai2?

El Allen Institute for AI presentó dos piezas que van juntas. La primera es MolmoSpaces, un entorno abierto de simulación con más de 230.000 escenas interiores, más de 130.000 objetos curados y más de 42 millones de anotaciones de agarre con base física. La segunda es MolmoBot, una suite de modelos de manipulación entrenados completamente con datos sintéticos generados en ese entorno.

Según Ai2, el dataset asociado —MolmoBot-Data— reúne 1,8 millones de trayectorias expertas de manipulación. En vez de pedirle a personas que teleoperen robots durante meses, el sistema genera escenas, variaciones de iluminación, texturas, posiciones de cámara y dinámicas físicas a escala usando simulación y randomización agresiva.

La idea de fondo no es nueva: entrenar en simulación para luego transferir al mundo real. Lo nuevo aquí es el nivel de ambición. Ai2 no está diciendo “la simulación ayuda”; está diciendo “la simulación por sí sola puede bastar en ciertos casos”.

¿Qué tan buenos fueron los resultados?

Los resultados más citados son potentes. En pruebas de pick-and-place sobre el brazo Franka FR3, el modelo principal de MolmoBot logró una tasa de éxito de 79,2%, frente al 39,2% reportado para π0.5 en ese benchmark comparativo, un sistema entrenado con grandes volúmenes de demostraciones del mundo real. En paralelo, el sistema también mostró transferencia zero-shot en tareas de manipulación móvil con el robot RB-Y1, como abrir puertas, cajones y gabinetes.

Ai2 afirma además que todo esto se consiguió sin fine-tuning en el mundo real, sin rendering fotorrealista y sin recopilar nuevas demostraciones humanas para adaptar el modelo final. Ese punto es el que más interés despierta, porque tocar un robot real es caro, lento y riesgoso. Cada hora de pruebas físicas vale mucho más que una hora extra de cómputo.

  • Infraestructura usada: la generación de datos corrió sobre 100 GPUs Nvidia A100.
  • Velocidad declarada: alrededor de 1.024 episodios por GPU-hora.
  • Equivalencia: más de 130 horas de experiencia robótica por cada hora de reloj, según el resumen publicado por Ai2 y medios especializados.

Eso no elimina todas las dudas metodológicas, pero sí deja claro por qué la industria está tan obsesionada con el tema: si el cuello de botella pasa de “recolectar datos físicos” a “diseñar mejores mundos virtuales”, la economía completa del sector cambia.

¿Por qué esto importa para la carrera por la IA física?

Porque casi todos los actores relevantes del sector están persiguiendo el mismo sueño desde ángulos distintos: robots que generalicen. Ya vimos apuestas industriales como ABB + NVIDIA con RobotStudio HyperReality, centradas en cerrar la brecha sim-to-real para fábricas reales. También vimos jugadores de hardware como Qualcomm y Neura Robotics intentando convertirse en la plataforma base de la nueva robótica cognitiva.

Ai2 entra en esa conversación con una propuesta distinta: abrir toda la cocina. Publica modelos, pipelines, infraestructura, anotaciones y herramientas de benchmark. Esa apertura no garantiza liderazgo comercial, pero sí puede acelerar muchísimo la investigación y bajar el costo de entrada para laboratorios, universidades y startups que no tienen presupuesto para meses de teleoperación manual.

Y aquí aparece otra diferencia importante. Muchas demos de “Physical AI” se apoyan en grandes nombres, robots llamativos y videos espectaculares. Ai2 intenta mover la discusión hacia una pregunta más concreta: ¿de verdad necesitas toneladas de datos reales para entrenar manipulación robusta, o simplemente te faltaba suficiente diversidad sintética?

Lo que sigue sin estar resuelto

Conviene no vender esto como misión cumplida. La robótica del mundo real sigue siendo brutalmente difícil. Que un sistema funcione bien en pick-and-place, puertas o cajones no significa que esté listo para hogares caóticos, plantas industriales impredecibles o tareas largas con múltiples pasos y objetivos cambiantes.

Tampoco hay que olvidar que el “sim-to-real gap” no desaparece por decreto. Lo que Ai2 muestra es que se puede reducir mucho si amplías drásticamente la diversidad del mundo simulado. Pero todavía queda por ver cuánto aguanta esta aproximación cuando sube la complejidad: herramientas deformables, interacción humana, fallos mecánicos, superficies irregulares o contextos semiestructurados.

Incluso así, el cambio de marco mental ya es importante. En vez de pensar que el activo escaso son los datos del mundo real, Ai2 propone pensar que el activo escaso son los buenos mundos virtuales. Y ese es un problema más escalable, más reproducible y mucho más compatible con investigación abierta.

Por qué importa

Si Ai2 tiene razón, la IA física podría entrar en una fase parecida a la que vivieron los modelos de lenguaje cuando se abrieron datasets, pesos y tooling: más actores experimentando, ciclos más rápidos y menos dependencia de unos pocos laboratorios con bolsillos infinitos. No significa que mañana verás un robot doméstico resolviendo todo, pero sí que el costo de empujar la frontera podría bajar de forma importante.

Eso importa porque la robótica venía atrapada en una paradoja: todos querían generalización, pero casi todos seguían dependiendo de datasets cerrados, horas humanas y pipelines difíciles de reproducir. Si la simulación puede absorber una parte grande de ese trabajo, la velocidad de iteración cambia radicalmente.

En otras palabras: este anuncio no demuestra que la robótica ya esté resuelta. Demuestra algo quizás más útil en este momento: que la economía de entrenar robots podría estar cambiando. Y cuando cambia la economía, suele cambiar también quién puede competir.


Fuentes

Leer más

Otras noticias