En AIPCon 2026, Ted Mabrey, director comercial de Palantir, subió al escenario y dijo algo que casi nadie en la industria se atrevería a decir en público: la compañía respalda activamente la kill chain —la secuencia de decisiones que va desde detectar un objetivo hasta neutralizarlo— y están “muy, muy orgullosos de ello”.
No fue un desliz. Fue una declaración de postura. Y aunque Palantir no es una startup, lo que expuso esa semana afecta directamente a cualquiera que esté construyendo plataformas de datos o herramientas de IA hoy. Porque el dilema que Palantir ha resuelto —con claridad brutal— es el mismo que el resto de la industria prefiere no resolver hasta que no queda otra opción.
Qué pasó en AIPCon 2026
Maven Smart System, la plataforma de IA que Palantir desarrolló para el Pentágono, se desplegó en todos los comandos de combate de las fuerzas armadas estadounidenses durante el año fiscal actual. Cameron Stanley, jefe de IA digital del Pentágono, la calificó de “revolucionaria”: consolida en una sola interfaz lo que antes requerían ocho o nueve sistemas separados.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀El impacto es documentable y concreto: la plataforma permite reducir la plantilla de analistas de inteligencia de 2.000 a tan solo 20 personas. No es una demostración de laboratorio. Es operación real, incluyendo episodios vinculados al conflicto con Irán —un escenario donde la IA procesó más de 3.000 objetivos en velocidades imposibles para analistas humanos.
El CTO Shyam Sankar confirmó que Maven alcanzó máximos históricos de uso en operaciones reales. Y el CEO Alex Karp, desde las cámaras de CNBC, fue directo: la IA proporciona a EE.UU. y sus aliados “una ventaja competitiva irreemplazable”, un “fenómeno distintivamente americano” que sus adversarios intentan atacar.
Los números que validan la postura
Palantir no solo declara orgullo: tiene resultados que lo respaldan. En el año fiscal 2025, el segmento gubernamental generó $1.855 millones, un incremento del 55% interanual. Los ingresos comerciales crecieron un 137% en el cuarto trimestre, alcanzando los $507 millones.
Contratos recientes: $448 millones con la Marina de EE.UU. para modernización de cadena de suministro naval; $300 millones en ahorros documentados para Centrus Energy en gestión de uranio. Y en paralelo, despliegue de AIP en hospitales americanos para gestión operacional clínica: los mismos sistemas que acortan cadenas de ataque también reducen tiempos de espera en urgencias.
La arquitectura es siempre la misma: ingestión masiva de datos, modelos de decisión en tiempo real, interfaces unificadas que reemplazan sistemas fragmentados. El cliente determina el propósito.
La trampa del dual-use que nadie quiere mirar
Aquí está lo que más importa para quienes construyen IA hoy.
Palantir integra modelos de terceros en sus plataformas. Entre ellos, Claude, el modelo de Anthropic. El mismo Anthropic que lleva semanas en un conflicto abierto con el Departamento de Defensa —que llegó a considerar una orden ejecutiva para excluir a la empresa de contratos federales— y que ha construido su modelo con restricciones explícitas sobre uso en sistemas de armas autónomas.
Palantir integró ese modelo en una plataforma que informa decisiones de targeting militar. El debate sobre si los chatbots deben tener un papel en la selección de blancos militares dejó de ser teórico: está ocurriendo, con o sin el consentimiento explícito de los modelos que lo posibilitan.
Esto no es una crítica a ninguna de las dos compañías. Es una ilustración del problema estructural del dual-use en IA: una vez que tu modelo sale al mercado —o tu API, o tu dataset, o tu framework—, el control sobre cómo se usa no es completamente tuyo. Puedes poner condiciones en los términos de servicio. No puedes supervisar cada integración aguas abajo.
El argumento de Karp y por qué es tan incómodo
La postura de Karp tiene lógica interna. Y eso es exactamente lo que la hace difícil de rebatir sin pensar con cuidado.
Su argumento es este: los sistemas de armas ya existen. La decisión de atacar un objetivo ya se toma. La pregunta no es si habrá kill chains, sino si estarán asistidas por IA con supervisión humana clara o por sistemas más opacos de adversarios sin esos controles. Desde esa perspectiva, participar en el sistema con datos y transparencia es más responsable que retirarse y dejar el campo libre.
Es un argumento que muchos en Silicon Valley rechazan con indignación. Pero pocos lo refutan con rigor. Y mientras el debate se queda en lo moral sin bajar a lo técnico y contractual, empresas como Palantir siguen siendo las únicas que tienen una respuesta articulada.
Por qué importa para founders en 2026
El caso Palantir no te pide que adoptes su postura. Te pide que tengas la tuya. Cinco señales concretas:
1. Las arquitecturas de datos unificadas tienen ventaja competitiva en cualquier sector. Las capacidades construidas para gobiernos migran a salud, energía y manufactura. Si construyes infraestructura de datos, tu próximo cliente de empresa puede ser un comprador gubernamental.
2. Integrar LLMs de terceros en entornos regulados exige gestión activa de compliance. No basta con los términos de uso del proveedor. El contexto de despliegue —quién lo usa, para qué, con qué datos— cambia la naturaleza del riesgo legal y reputacional.
3. La reducción de personal mediante IA es el benchmark que los compradores enterprise ya evalúan. De 2.000 a 20 analistas es un número que va a aparecer en las presentaciones de ventas de docenas de startups en los próximos meses. El mercado ya sabe que es posible.
4. El debate ético no es una distracción del negocio: es el negocio. La postura de Karp es explícita, consistente y rentable. La postura de Anthropic es explícita pero tiene fisuras en su implementación downstream. Ambas tienen consecuencias para su ecosistema de clientes y socios. Ninguna neutralidad es estable.
5. Quien no define su postura antes de escalar la definirá bajo presión. Eso es peor para todos: para la empresa, para los usuarios, y para el debate público que necesita voces informadas, no reacciones de crisis.
En 2026, ya no basta con “construir buenas herramientas”. Palantir lo demuestra desde el extremo más visible del espectro. Pero el dilema del dual-use no es exclusivo de quienes trabajan con defensa: es el dilema de cualquiera que construya infraestructura con capacidad de decisión real. La pregunta de para qué y para quién ya no es opcional en el roadmap. Es una decisión de producto que determina el tipo de empresa que serás.
Fuentes
- Ecosistema Startup — Palantir e IA militar: lecciones para founders tech
- The Register — Pentagon praises Palantir tech for battlefield strike speed
- WIRED — Palantir demos: how the military could use AI chatbots to generate war plans
- The Guardian — Anthropic-Pentagon battle shows how big tech reversed course on AI and war

