Pokémon Go entrenó el mapa del mundo para robots de reparto

Share

Quinientos millones de personas descargaron Pokémon Go en sus primeros 60 días, en 2016. Mientras cazaban Pikachus apuntando sus teléfonos a edificios, parques y monumentos, también construían algo que no sabían que existiría: el mayor archivo de imágenes geolocalizadas con precisión centimétrica de la historia. Ahora esas imágenes están guiando robots de reparto a tu puerta.

Niantic Spatial, la empresa de IA que Niantic separó en mayo de 2025, anunció su primera alianza comercial: los robots de entrega de Coco Robotics usarán su modelo geoespacial entrenado con datos de Pokémon Go para navegar con precisión en entornos urbanos donde el GPS falla. Es el primer caso de uso concreto de un modelo de “mundo real” que sale del laboratorio a las calles.

¿Qué tiene que ver Pikachu con un robot repartidor?

Para que los juegos de realidad aumentada de Niantic funcionaran, la empresa necesitaba saber exactamente dónde estabas parado y hacia dónde miraba tu teléfono con precisión milimétrica. Cada vez que millones de jugadores apuntaban su cámara a un edificio o un monumento para capturar un Pokémon, Niantic registraba la imagen con metadatos riquísimos: posición GPS, orientación del teléfono, altura, velocidad, dirección de movimiento, hora del día y condiciones de luz.

Después de más de una década entre Pokémon Go (2016) y su juego anterior Ingress (2013), ese archivo suma 30 mil millones de imágenes tomadas en entornos urbanos de todo el mundo, con especial densidad en los millones de “puntos calientes” del juego: arenas de batalla Pokémon, gimnasios, PokeStops.

“Teníamos más de un millón de ubicaciones en todo el mundo donde podemos localizarte con precisión de varios centímetros, y lo más importante: sabemos hacia dónde estás mirando”, explica Brian McClendon, CTO de Niantic Spatial.

El problema que Niantic resuelve: el cañón urbano

Los robots de Coco Robotics —del tamaño de una maleta grande, capacidad para hasta 8 pizzas extragrandes o 4 bolsas de supermercado— operan hoy en Los Ángeles, Chicago, Jersey City, Miami y Helsinki. Han completado más de medio millón de entregas. Pero para competir con un repartidor humano en velocidad y confiabilidad, deben llegar exactamente cuando prometieron.

El problema: el GPS es notoriamente impreciso en ciudades densas. Las señales rebotan en edificios y se interfieren entre sí. “El cañón urbano es el peor lugar del mundo para el GPS. Si miras el punto azul en tu teléfono en el centro de una ciudad densa, lo verás derivar 50 metros —lo que te pone en otra calle, yendo en otra dirección, en el lado equivocado de la manzana”, dice McClendon.

La solución de Niantic Spatial es un sistema de posicionamiento visual: en lugar de confiar en señales satelitales, el modelo observa lo que sus cámaras ven y responde “estás aquí, a estos centímetros exactos”. Los robots de Coco llevan 4 cámaras apuntando en todas direcciones. Adaptar los datos de Pokémon Go (imágenes tomadas a altura de teléfono) a las cámaras de los robots (a altura de caderas, apuntando en cuatro direcciones) fue “sencillo”, según el CEO de Coco, Zach Rash.

El resultado práctico: los robots pueden posicionarse en el punto exacto de recogida frente a restaurantes sin bloquear el paso, y detenerse justo en la puerta del cliente en lugar de a unos pasos de distancia. Suena menor, pero en la práctica es la diferencia entre un servicio de reparto confiable y uno que genera reseñas de una estrella.

El modelo geoespacial como “guía para máquinas”

John Hanke, CEO de Niantic Spatial, describe la visión de largo plazo como un “mapa vivo”: una simulación hiperactualizada del mundo real que se actualiza en tiempo real a medida que los robots registran nuevos datos. Cada entrega de Coco, cada robot moviéndose por una acera, alimenta el modelo.

Pero hay algo más ambicioso: los mapas tradicionales —y los modelos de lenguaje actuales— saben “qué” hay en el mundo, pero no saben interpretarlo físicamente de forma que sea útil para máquinas. ¿Cuánto espacio real hay en esa acera? ¿Ese umbral tiene escalones? ¿La puerta de ese restaurante abre hacia dentro o hacia afuera? Los humanos lo tomamos por sentado. Los robots y los agentes de IA no.

Lo que Niantic Spatial está construyendo es un modelo donde cada objeto del mundo real tenga sus propiedades etiquetadas para máquinas. “Esta era se trata de construir descripciones útiles del mundo para que las máquinas las comprendan”, dice Hanke. “Los datos que tenemos son un punto de partida extraordinario para entender cómo funciona el tejido conectivo del mundo.”

Esto conecta directamente con el concepto de world model que está en el centro del debate más importante en IA este año. Mientras Yann LeCun levantó $1.030M para AMI con la tesis de que los LLMs no pueden llegar a la inteligencia general sin modelos del mundo físico, Niantic Spatial viene desde un ángulo distinto: no desde la física simulada, sino desde datos reales del mundo capturados durante más de una década.

¿Por qué ahora? Una explosión cámbrica en robótica

Hanke reconoce que cuando Niantic Spatial empezó su trabajo, el destino obvio era la realidad aumentada: gafas AR que superponen objetos virtuales perfectamente sobre el mundo real. Pero el mercado tomó otro camino.

“Todos pensaban que las gafas AR eran el futuro. Luego los robots se convirtieron en la audiencia”, dice McClendon. La aceleración en robótica —desde humanoides en fábricas hasta robots de entrega en aceras— está creando demanda enorme de navegación precisa que no dependa de GPS.

Otras empresas en el espacio de la entrega autónoma, como Zoox con su alianza con Uber en Las Vegas, se enfrentan al mismo problema de precisión en entornos urbanos. La diferencia está en el origen de los datos: donde la mayoría de actores construye su mapa desde cero con sus propios vehículos, Niantic Spatial llega con 30 mil millones de imágenes ya procesadas, de cientos de millones de personas en mil ciudades.

La empresa también está pensando en robots que comparten espacios con humanos: sitios de construcción, aceras congestionadas, edificios de oficinas. “Si los robots van a asimilarse en esos entornos sin ser disruptivos, necesitan un nivel similar de comprensión espacial que los humanos. Podemos ayudarles a encontrar exactamente dónde están cuando fueron empujados o golpeados”, dice Hanke.

Por qué importa

Pokémon Go siempre fue, accidentalmente, una de las operaciones de recolección de datos geoespaciales más masiva de la historia. Ahora esos datos tienen un segundo acto, y es mucho más serio que cazar criaturas virtuales.

La historia de Niantic Spatial plantea una pregunta que va a repetirse a medida que avanza la IA: ¿cuántos datos valiosos para los sistemas del futuro están atrapados en servicios que nunca pensaron usarlos así? En este caso la respuesta fue: 30 mil millones de imágenes tomadas por voluntarios que solo querían atrapar un Charizard. El truco estuvo en saber qué construir con ellos.


Fuentes

Leer más

Otras noticias