El debate sobre IA suele girar en torno a quién tiene el modelo más grande. Pero Multiverse Computing está apostando a lo contrario: que el modelo más pequeño —si está bien comprimido— puede ganarle la carrera al gigante. Esta semana, la startup española lanzó un portal de API propio y una app de chat con modelos que corren sin internet, y sus cifras empiezan a respaldar la apuesta.
La tesis es simple pero poco obvia: comprimir un modelo de IA un 95% sin perder calidad real no es un truco de optimización. Es una tecnología de infraestructura que cambia quién puede usar IA, dónde y a qué costo.
¿Qué hace CompactifAI exactamente?
CompactifAI es la tecnología de compresión de Multiverse Computing, inspirada en algoritmos de computación cuántica. A diferencia de los métodos convencionales, que comprimen modelos entre un 50-60% pero pierden entre un 20-30% de precisión, CompactifAI identifica qué componentes de la red neuronal son más importantes y los preserva.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀El resultado: modelos de OpenAI, Meta, DeepSeek y Mistral reducidos hasta en un 95% de su tamaño, con una pérdida de precisión de apenas 2-3%. El ejemplo más concreto es HyperNova 60B 2602: una versión comprimida del modelo gpt-oss-120B de OpenAI que pesa la mitad y, según Multiverse, responde más rápido y a menor costo que el original, con soporte mejorado para tool calling y workflows de coding agéntico.
La novedad de esta semana no es solo el modelo. Es la infraestructura que Multiverse está construyendo alrededor de él: un portal de API en autoservicio para desarrolladores y empresas, y una app llamada CompactifAI que incluye un modelo llamado Gilda, lo suficientemente pequeño para correr localmente en un dispositivo sin conexión a internet.
¿Por qué importa el edge, más allá del marketing?
La promesa del edge AI —modelos que corren en dispositivos sin depender de la nube— lleva años circulando sin terminar de cuajar. Pero hay un contexto nuevo que cambia la ecuación.
Primero, el riesgo financiero. Con tasas de impago en crédito privado en torno al 9.2%, la firma de VC Lux Capital advirtió recientemente a sus portafolios que confirmen por escrito sus compromisos de cómputo con proveedores cloud. Si tu startup depende de una API externa para que funcione tu producto, estás expuesto a la salud financiera de terceros. Un modelo que corre local elimina ese riesgo.
Segundo, la privacidad operativa. Para sectores como salud, finanzas o defensa, que los datos no salgan del dispositivo no es una preferencia: es un requisito regulatorio o de seguridad. Un modelo capaz de procesar información sensible sin enviarla a ningún servidor es un habilitador, no un lujo.
Tercero, la conectividad. Drones, satélites, equipos industriales en campo abierto, dispositivos en infraestructura crítica. Todos estos son casos donde asumir conexión estable es asumir demasiado. CompactifAI apunta directamente a estos escenarios.
La trampa es que la app todavía no llega a todos los dispositivos: si el teléfono no tiene RAM suficiente —y muchos iPhones antiguos no la tienen—, el sistema redirige automáticamente las consultas a la nube vía API, perdiendo la ventaja de privacidad. Es una solución elegante de ingeniería, pero deja claro que el edge AI masivo para consumidores todavía tiene trabajo por delante.
El negocio real: empresas, no usuarios finales
Con menos de 5,000 descargas de la app en el último mes según Sensor Tower, el producto para consumidores no es el foco real de Multiverse. El CEO Enrique Lizaso lo dejó claro al lanzar el portal de API: el objetivo es dar acceso directo a desarrolladores y empresas, con monitoreo de uso en tiempo real y transparencia operativa.
Los clientes ya existen. Más de 100 empresas globales, incluyendo el Bank of Canada, Bosch e Iberdrola, ya usan tecnología de Multiverse. Eso da credibilidad a la propuesta de valor empresarial: modelos que cuestan menos de operar, corren en hardware modesto, y pueden desplegarse sin depender de infraestructura de hiperescala.
El momento de mercado también ayuda. Esta misma semana, Mistral lanzó Small 4, su modelo más eficiente hasta ahora, optimizado simultáneamente para chat, código, tareas agénticas y razonamiento. La apuesta de la industria por modelos compactos y polivalentes está tomando velocidad, y Multiverse quiere posicionarse como la capa que conecta esos modelos con el hardware real de sus clientes.
En esa línea, el contexto regulatorio europeo y la creciente preocupación por la soberanía de datos son viento a favor. Ya hemos cubierto cómo Chile y otras jurisdicciones en LATAM empiezan a poner exigencias sobre dónde residen los datos cuando se usa IA. Un modelo local o desplegado en infraestructura propia del cliente simplifica mucho esa ecuación.
La gran pregunta: ¿qué pierde la compresión?
La cifra del 2-3% de pérdida de precisión suena bien. Pero es importante entender qué significa en la práctica. Para tareas de texto general o análisis empresarial, la diferencia puede ser invisible. Para razonamiento matemático complejo, diagnóstico médico o seguridad, ese margen puede importar más de lo que parece.
El lanzamiento de HyperNova 60B 2602 incluye mejoras en tool calling —la capacidad del modelo de usar herramientas externas y ejecutar flujos de trabajo multistep—, lo que sugiere que Multiverse está prestando atención a los casos de uso agénticos donde la precisión sí importa. Un modelo que orquesta acciones en nombre de un usuario puede cometer errores costosos si su tasa de error es sistemáticamente más alta que la del modelo base.
La transparencia sobre estos tradeoffs es exactamente lo que debería exigirle cualquier empresa antes de desplegar. El portal de API incluye monitoreo de uso en tiempo real, pero no está claro qué nivel de benchmarks específicos por tarea publica Multiverse de forma pública y verificable. Es el estándar que la industria todavía está construyendo.
Por qué importa esto para quien construye productos con IA
La promesa de CompactifAI no es reemplazar los modelos grandes. Es hacer viable una clase de implementaciones que hoy son prohibitivas: aplicaciones que necesitan privacidad total, productos para mercados con conectividad limitada, startups que no pueden comprometerse con el costo de cómputo de un proveedor cloud a largo plazo.
Para founders en LATAM construyendo sobre modelos de lenguaje, el cálculo es concreto: si tu caso de uso tolera un 2-3% de pérdida de precisión a cambio de 80-95% menos de costo operativo, sin dependencia de proveedores, y con datos que no salen de tus servidores, la propuesta merece evaluarse seriamente.
Multiverse no está vendiendo el modelo más inteligente del mercado. Está vendiendo el más eficiente en su clase. Y en un mundo donde los costos de infraestructura IA siguen siendo un cuello de botella —y donde la escasez de RAM ya se traduce en precios más altos— eso tiene más valor que hace dos años.
La próxima ronda de €500 millones que se reporta en negociación, a más de €1.500 millones de valoración, sugiere que los inversores también lo creen.

