ExecuTorch en producción: la IA que corre en tus gafas Meta, no en la nube

Share

Meta lleva más de un año desplegando ExecuTorch en producción y los números ya hablan: sus gafas Ray-Ban Display, los headsets Quest 3 y 3S, y la banda EMG Neural Band procesan IA directamente en el dispositivo, sin mandar datos a la nube. El resultado son experiencias más rápidas, más privadas y que funcionan sin conexión.

Hasta hace poco, correr modelos de IA en wearables era un ejercicio de contorsionismo técnico: el hardware era demasiado limitado, los frameworks demasiado pesados y la integración entre distintos chips un caos. ExecuTorch cambia esa ecuación.

¿Qué es ExecuTorch y por qué importa para wearables?

ExecuTorch es el framework de inferencia de PyTorch para dispositivos edge (móviles, wearables, microcontroladores), desarrollado por Meta con soporte de Arm, Apple y Qualcomm. Su diseño es modular y su footprint base es de apenas 50 KB, lo que lo hace viable en hardware desde SoCs de alta gama hasta microcontroladores de ultra bajo consumo.

  • Portabilidad extrema: soporta más de 12 backends de hardware (Apple, Qualcomm, Arm, MediaTek, Vulkan) y más del 80% de los modelos LLM populares en HuggingFace funcionan sin modificaciones.
  • PyTorch nativo: los investigadores trabajan en PyTorch y el mismo modelo va directo a producción en edge, sin reescribir código.
  • Open source: disponible en GitHub bajo pytorch/executorch.

Qué corre ExecuTorch en los dispositivos de Reality Labs

Ray-Ban Display Glasses con banda EMG

Las nuevas gafas Ray-Ban Display, presentadas en CES 2026, incluyen una banda EMG (electromiografía) que captura señales musculares de la muñeca para controlar el dispositivo con gestos. La detección y clasificación de esas señales ocurre completamente on-device gracias a ExecuTorch. Según Meta, esto permite que el control funcione con latencia mínima y sin comprometer la privacidad del usuario, ya que los datos biométricos nunca salen del dispositivo.

Meta Quest 3 y 3S: 15 habitaciones en memoria

Los headsets Quest 3 y 3S usan ExecuTorch para el mapeo espacial. Gracias a la inferencia on-device, el headset puede recordar hasta 15 habitaciones diferentes, cada una con su propio layout y límites, sin necesidad de reconectar a internet ni recalibrar desde cero. Es el tipo de feature que parece magia pero es pura IA local corriendo en el SoC del headset.

Apps de Meta: Instagram, WhatsApp y Messenger

El mismo framework ya está en producción en las apps de Meta con miles de millones de usuarios:

  • Instagram Cutouts: convierte fotos y videos en stickers animados usando SqueezeSAM (versión ligera del Segment Anything Model). ExecuTorch redujo significativamente el tiempo de inferencia y subió el número de usuarios activos diarios de la feature.
  • WhatsApp: modelos de estimación de ancho de banda que optimizan la calidad de videollamadas según la red disponible. ExecuTorch redujo el tiempo de carga y la latencia promedio, y ahora se migran también los modelos de noise-canceling y mejora de video.
  • Messenger: el modelo LID (language identification) corre on-device para detectar el idioma de los mensajes y habilitar traducción y resúmenes, preservando el cifrado de extremo a extremo (E2EE). Sin on-device, E2EE haría imposible que los servidores procesaran el texto.

El contexto más amplio: la carrera por la IA en el borde

La apuesta de Meta por ExecuTorch no ocurre en el vacío. Apple tiene su Neural Engine y el Apple Intelligence suite. Qualcomm lleva años vendiendo NPUs en sus Snapdragon. Google tiene Edge TPU y TensorFlow Lite. Pero ninguno tiene un framework open source con este nivel de integración entre investigación (PyTorch) y producción edge que funcione a la vez en gafas, headsets VR, móviles y microcontroladores.

En 2026, Meta está reorientando recursos desde VR tradicional hacia wearables con IA: las Ray-Ban smart glasses venden bien en EE.UU. y la compañía trabaja en hasta cuatro variantes de gafas de realidad aumentada. ExecuTorch es la infraestructura silenciosa que hace posible esa transición.

Para developers LATAM, esto tiene una implicación concreta: si estás construyendo apps o experiencias para dispositivos Meta, el stack de producción es ExecuTorch + PyTorch. No es un experimento de laboratorio, es lo que corre en millones de dispositivos hoy.

Por qué importa

La IA on-device no es solo una cuestión de privacidad o latencia: es una cuestión de qué experiencias son posibles. Un agente que depende de la nube falla con mala conexión, tiene latencia perceptible y maneja datos sensibles en servidores externos. ExecuTorch demuestra que la alternativa ya no es teórica.

Lo que Meta construyó con ExecuTorch es esencialmente un sistema operativo de inferencia para el edge: modular, portable, PyTorch-compatible, y con capacidad probada desde microcontroladores hasta headsets VR. El hecho de que esté en producción en Instagram y WhatsApp, con miles de millones de usuarios, es la validación más grande posible.

En un momento en que la industria debate si los modelos grandes en la nube son el futuro, Reality Labs está apostando por una respuesta diferente: la IA más útil es la que vive en tu cuerpo, no en un datacenter. Y parece que están ganando terreno.

Si te interesa la evolución de los agentes de IA y cómo están cambiando las plataformas, lee también sobre Luma y sus agentes creativos y el análisis de DORA 2025 y los desarrolladores que usan IA.


Fuentes

Leer más

Otras noticias