Cada vez que abres ChatGPT, Claude o Gemini para escribir algo privado, estás mandando ese texto a un servidor. La empresa lo recibe. Lo procesa. Puede usarlo para mejorar sus modelos. Puede quedar en logs. Puede ser accedido por empleados. Hay un contrato de confianza implícito que la mayoría de usuarios acepta sin leer.
Ente, la empresa detrás de la app de fotos cifradas que ya tiene miles de usuarios que priman la privacidad sobre la conveniencia, acaba de lanzar Ensu: un LLM local, open source y completamente offline. Su tesis es simple y radical: los modelos de lenguaje son demasiado importantes para dejárselos a las Big Tech.
¿Qué es Ensu exactamente?
Ensu es una aplicación que te permite conversar con un modelo de lenguaje grande que corre completamente en tu dispositivo —sin internet, sin servidores, sin que tus datos salgan a ningún lado. Está disponible para iOS, Android, macOS, Linux y Windows. El núcleo está escrito en Rust, y hay apps nativas para móvil y versiones de escritorio basadas en Tauri que comparten la misma lógica central. El código es open source y está en GitHub.
Aprende IA con nosotros
Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.
👥 Únete gratis 🚀El modelo no es GPT-4 ni Claude. Es un modelo local diseñado para funcionar en hardware de consumo sin GPU de gama alta. Ente lo describe sin hype: “No es tan potente como ChatGPT o Claude Code. Pero ya es bastante divertido.” Las funciones actuales incluyen chat, soporte de adjuntos de imágenes y —próximamente— sincronización cifrada de tus conversaciones entre dispositivos a través de tu cuenta Ente o self-hosting propio.
El problema de fondo que Ensu intenta resolver
La startup detrás de Ensu no es nueva en este territorio. Ente lleva años construyendo software de privacidad: primero fue Ente Photos, una alternativa a Google Photos con reconocimiento facial, clustering de personas y búsqueda por lenguaje natural que funciona completamente en local. Cuando lo anunciaron, la reacción del mercado fue “imposible”. Lo hicieron igual. Sus usuarios usan esas funciones todos los días, sin que un solo pixel de sus fotos toque un servidor externo.
La hipótesis de Ensu parte de dos observaciones concretas:
- Los modelos locales mejoran cada día. La brecha con los modelos en la nube es real, pero lo que importa no es cerrar esa brecha completamente —es cruzar un umbral de utilidad. Una vez que un modelo local puede hacer el 80% de lo que necesita la mayoría de usuarios, la ecuación cambia.
- La dependencia de los LLMs centralizados tiene costos ocultos que la gente no percibe hasta que los sufre: bans arbitrarios, modificaciones de comportamiento sin previo aviso, memoria no portátil, datos que alimentan entrenamientos futuros sin consentimiento real.
Ente dice algo más incómodo: “Los LLMs pueden usarse para manipular a personas en masa. No podemos estar a merced de las Big Tech controlándolos.”
Por qué esto importa más allá del nicho privacista
El argumento habitual contra los LLMs locales es el rendimiento. Los modelos que corren en tu laptop son peores que los que corren en el data center de OpenAI. Eso es cierto. Pero la conversación está cambiando.
Primero, el hardware avanza. Los AI PCs con NPUs dedicadas, los chips como el Apple Silicon, el Qualcomm Snapdragon X y los AMD Ryzen AI están democratizando la inferencia local. Herramientas como llama.cpp, Ollama y MLX llevan corriendo modelos locales razonables en hardware de consumo desde 2023. La categoría AI PC ya tiene su propia tracción de mercado.
Segundo, el contexto de uso importa. No todo uso de IA requiere el modelo más capaz del mundo. Hay casos donde lo que necesitas es un LLM que te ayude a pensar, redactar, analizar o explorar ideas sin riesgo de que esa conversación acabe en un dataset de entrenamiento o en un log auditado. Para periodistas, abogados, médicos, investigadores, activistas o simplemente personas que quieren privacidad real, un modelo local decente es mejor que el mejor modelo en la nube.
Tercero, el movimiento está madurando institucionalmente. La demanda de estándares abiertos como MCP, la proliferación de modelos open-weight como Llama, Mistral y Qwen, y proyectos como Ensu son parte de un ecosistema que está construyendo infraestructura de IA descentralizada. No como ideología, sino como opción técnica viable.
El modelo de Ente como caso de estudio
Lo que hace interesante a Ensu como señal de mercado no es solo el producto —es la empresa detrás. Ente construyó un negocio rentable en el nicho de la privacidad total cuando ese nicho parecía marginal. Ente Photos existe como empresa porque hay usuarios dispuestos a pagar por privacidad real, no por promesas de privacidad. Ese usuario ya existe. Ya tiene hábitos. Ya sabe lo que quiere.
La pregunta de Ente con Ensu no es “¿puede un LLM local ser tan bueno como GPT-4?”. Es “¿puede un LLM local cruzar el umbral de utilidad para el usuario que ya eligió privacidad sobre conveniencia?”. Esa es una pregunta más pequeña y más honesta —y probablemente tiene respuesta afirmativa antes de lo que la mayoría del mercado anticipa.
En ese sentido, Ensu no es un competidor de ChatGPT. Es una apuesta a que existe un mercado suficientemente grande de personas para quienes la privacidad es un requisito, no una preferencia —y que ese mercado va a crecer a medida que los escándalos de datos y la dependencia de modelos centralizados se vuelvan más visibles.
El producto está en fase labs. Los modelos locales todavía tienen limitaciones reales. Pero la dirección es clara, el código es público y la empresa ya demostró una vez que puede hacer lo que el mercado llamó imposible.

