Mientras Anthropic pelea en los tribunales por los límites del uso militar de la IA, hay una empresa que nunca tuvo ese debate: Palantir. El 20 de marzo, Steven Levy de WIRED entró a la conferencia de desarrolladores de la compañía —en un hotel de la costa atlántica cuya ubicación exacta no fue revelada— y encontró algo que se siente muy diferente al resto de Silicon Valley: una empresa que construye IA explícitamente para matar, y que se enorgullece de decirlo.
No es una acusación. Es su argumento de venta.
¿Qué hace Palantir exactamente?
Palantir fue fundada en 2003 por Peter Thiel y Alex Karp. Durante años fue una empresa de contratos de defensa con una reputación misteriosa: hacía software de análisis de datos para el Pentágono, la CIA y otras agencias de inteligencia. Fue parte del proyecto Maven, el sistema de IA del Ejército para análisis de battlefield. Con los años, también empezó a vender a empresas comerciales: aerolíneas, bancos, aseguradoras, retailers.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀Hoy su crecimiento comercial supera al gubernamental: la división comercial crece al 120% anual versus 60% en gobierno, según Shyam Sankar, el CTO. Pero la identidad de la empresa sigue siendo la defensa. Y con EE.UU. activamente en guerra con Irán, eso ha cobrado nueva vigencia.
El modelo de negocio tiene una capa que lo distingue: Palantir no solo vende software, sino que embebe ingenieros propios dentro de sus clientes para ayudarlos a construir sobre su plataforma. Con modelos de lenguaje, ese proceso se aceleró masivamente. “Nuestro modelo de negocio era limitado por el número de personas disponibles. Los LLMs eliminaron ese cuello de botella”, dice Sankar.
Lo que Karp dijo en el escenario
Alex Karp usó blazer en la conferencia —”para que mi familia crea que tengo trabajo”, bromeó— pero su mensaje no tenía nada de informal. En EE.UU. en guerra, dijo, la prioridad de Palantir es una sola: dar ventaja a sus soldados. “Fuimos construidos para darle a nuestros combatientes una ventaja desleal. La idea era: sí, vamos a joder a nuestros enemigos. Y me enorgullezco de eso.”
Karp también aclaró cuál es el único límite que no acepta: “Puedes estar en cualquier lado de un tema político, pero si esperas que no apoyemos a nuestros combatientes cuando están en combate, te equivocaste de empresa.” Y fue explícito en lo que eso implica: “A veces significa que los del otro lado no vuelven a casa.”
Estas palabras llegaron días después de que al menos 175 civiles iraníes murieran cuando un misil impactó una escuela de niñas. Palantir no comentó sobre si sus productos estuvieron involucrados.
El contraste tácito con Anthropic
Karp nunca mencionó a Anthropic, pero no necesitaba hacerlo. El contexto era obvio: Anthropic está envuelto en una disputa legal con el Pentágono después de negarse a firmar una cláusula de “uso militar irrestricto” para sus contratos. El Departamento de Defensa lo declaró un “riesgo en la cadena de suministro”. Anthropic demandó.
Para Palantir, eso es un error categórico. Sankar dijo directamente que los líderes de empresas de IA “tienen un hueco donde debería haber un Dios” y lo están llenando con promesas de AGI. La referencia al ensayo “Machines of Loving Grace” de Dario Amodei, el CEO de Anthropic, era transparente.
La posición de Palantir: la ética de la guerra no se resuelve negándose a participar. Se resuelve haciendo que el lado correcto gane. Y el lado correcto, para ellos, siempre es EE.UU.
Por qué importa para el sector tech
El debate que se está dando en IA no es abstracto. Hay empresas que están eligiendo activamente qué tipo de clientes quieren tener, qué tipo de usos son aceptables, y dónde están sus límites. OpenAI ha tenido tensiones internas similares. Google DeepMind también. Palantir no tiene ese debate porque lo resolvió hace años: su misión siempre fue militar.
Lo que ha cambiado es que el modelo generativo hizo que esa posición sea más lucrativa que nunca. La IA no solo analiza datos: sugiere objetivos, acelera decisiones, genera planes de acción. Y hay compradores dispuestos a pagar mucho por eso.
La pregunta que el sector entero está evitando responder es si hay diferencia moral entre construir la herramienta y apretar el gatillo. Para Palantir, esa pregunta está resuelta. Para el resto de la industria, todavía no.

