Meta ha gastado más de 100.000 millones de dólares al año en infraestructura de IA, fichó a los investigadores más caros del sector y montó un laboratorio de “Superinteligencia” liderado por el fundador de Scale AI. El resultado, nueve meses después: cero modelos lanzados, el modelo estrella con retraso hasta mayo como mínimo y, según fuentes internas, la dirección discutiendo pagar licencias a Google para usar Gemini mientras espera que lo suyo funcione.
La historia de Avocado — el nombre en clave del próximo modelo fundacional de Meta — es un caso práctico sobre por qué el dinero y el talento no se compran solos.
¿Qué es Avocado y por qué importa?
Avocado es el modelo que Meta Superintelligence Labs (el laboratorio creado en 2025 y liderado por Alexandr Wang, fundador de Scale AI) lleva desarrollando desde el año pasado. Según memos internos filtrados, completó su preentrenamiento en enero de 2026 y en benchmarks internos supera a Llama 4 y al antiguo Gemini 2.5. Suena prometedor.
El problema: se queda corto frente a Gemini 3.0 y, por supuesto, frente a Gemini 3.1, que Google lanzó este mes. En un mercado donde OpenAI, Google y Anthropic iteran cada pocas semanas, llegar con un modelo que ya nace por detrás de la competencia no tiene sentido comercial.
La decisión fue esperar. El lanzamiento, que estaba previsto para marzo de 2026, se ha pospuesto a mayo como muy pronto — según confirmaron tres fuentes internas al New York Times.
El síntoma más llamativo: ¿pagar a Google por Gemini?
Mientras Avocado no estaba listo, los líderes de la división de IA de Meta llegaron a discutir algo que habría sido impensable hace un año: comprar una licencia de Gemini a Google para mantener funcionando las capacidades de IA en WhatsApp, Instagram y Threads.
No está confirmado que esa negociación avanzara, pero el hecho de que se planteara dice mucho. Meta está construyendo centros de datos a escala de 135.000 millones de dólares de capex solo para 2026, casi el doble del año anterior, precisamente para no depender de nadie. Y resulta que la solución provisional a su brecha de capacidad es pagar a un rival.
Las tensiones internas que nadie esperaba
Ecosistema Startup y Xataka describen una dinámica interna complicada. El equipo de Wang, conocido internamente como “TBD Lab”, trabaja bajo presión máxima en modelos con nombres de frutas (Avocado, Mango, Watermelon). Pero ha chocado con directivos históricos de Meta como Chris Cox y Andrew Bosworth, que quieren integrar esos modelos con el negocio publicitario — que es el que sostiene a la empresa.
Wang, según las fuentes, no lleva bien esa parte. Su perfil es de investigador puro y fundador técnico, no de ejecutivo de producto orientado al revenue de ads.
Los otros fichajes estrella — Nat Friedman (ex-CEO de GitHub) y Shengjia Zhao (coautor técnico de ChatGPT) — añaden presión de expectativas sin que haya hasta ahora un producto que las justifique públicamente.
El giro estratégico más revelador: adiós al open source
Meta fue el gran defensor del open source en IA. La familia Llama democratizó el acceso a modelos avanzados. Pero ese mismo éxito se volvió en su contra: según reportes de CNBC y Bloomberg, Meta detectó que componentes de Llama 4 fueron incorporados en proyectos externos, incluyendo el desarrollo de DeepSeek — el modelo chino que sacudió los mercados a principios de 2025. En la práctica, Meta estaba subsidiando a sus competidores. La coincidencia no se le pasó por alto a nadie, como documentamos cuando salió a la luz la destilación industrial de DeepSeek a partir de modelos como Claude y Llama.
La conclusión estratégica fue contundente: Avocado no será open source. A diferencia de Llama, se distribuirá únicamente vía APIs de pago. Un giro radical que alinea a Meta con OpenAI y Google, pero que decepciona a la comunidad de desarrolladores que construyó sobre sus modelos abiertos.
Mango y los benchmarks positivos: no todo son malas noticias
Hay señales alentadoras que los memos filtrados recogen: un modelo paralelo llamado Mango muestra resultados superiores en tareas específicas — código Python, matemáticas universitarias y reducción de alucinaciones frente a GPT-4o mini. El potencial técnico existe. La pregunta es la velocidad de ejecución y si el mercado espera.
Por qué importa
Meta tiene todos los ingredientes del éxito en IA sobre el papel: la mayor red de distribución del mundo (WhatsApp + Instagram + Facebook), los investigadores más caros, la infraestructura más ambiciosa. Y aun así está tardando. Eso no es un fracaso de Meta en particular — es una demostración de que construir modelos de frontera tiene una complejidad intrínseca que el dinero puede acelerar, pero no eliminar.
Para el ecosistema, lo más relevante no es el retraso en sí. Es el cambio de filosofía: cuando la empresa más comprometida con el open source decide cerrar sus modelos más capaces, el panorama de acceso a IA de frontera cambia. Desarrolladores que construían sobre Llama tendrán que recalcular su stack. La reestructuración interna que ejecutó Zuckerberg hace unas semanas, reduciendo el poder de Wang y creando nuevas líneas de mando, era un síntoma del mismo problema que ahora se hace público: la promesa de la superinteligencia de Meta todavía no tiene fecha firme de entrega.

