En febrero de 2026, el Departamento de Defensa de Estados Unidos firmó un contrato de aproximadamente 200 millones de dólares con xAI para desplegar el chatbot Grok en redes militares clasificadas. El acuerdo desplazó a Anthropic, cuyo modelo Claude había sido el único modelo de IA de frontera autorizado en esos sistemas hasta ese momento.
La senadora Elizabeth Warren calificó el contrato como “singularmente preocupante” y envió una carta al Secretario de Defensa Pete Hegseth exigiendo respuestas que, hasta la fecha, no han llegado. El episodio destapa algo más importante que un contrato de defensa: expone cómo los estándares éticos en IA se están convirtiendo en una desventaja competitiva en los mercados de mayor valor.
Por qué Anthropic quedó fuera y xAI entró
El punto de quiebre está en un requisito contractual llamado all lawful purposes —”todos los usos legales”— que el Pentágono introdujo como condición para sus proveedores de IA. Este estándar habilita al Departamento de Defensa a usar los modelos para cualquier propósito que no esté prohibido por ley, incluyendo vigilancia masiva y aplicaciones de armamento autónomo.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀Anthropic se negó a aceptar ese estándar, argumentando que era incompatible con sus políticas de uso responsable. OpenAI firmó un contrato similar pero con cláusulas explícitas contra vigilancia masiva. xAI aceptó las condiciones sin restricciones documentadas públicamente, convirtiéndose en el modelo con menos limitaciones declaradas dentro de los sistemas militares clasificados de EE.UU.
El patrón es claro: en este mercado específico, mantener guardrails éticos tiene un costo concreto medido en contratos de nueve cifras.
Las preguntas de Warren y lo que revelan
La senadora Warren planteó cuatro inquietudes centrales en su carta al Pentágono:
- Conflicto de intereses: Elon Musk fue asesor del gobierno de Trump a través del DOGE, lo que genera preguntas sobre si su influencia política facilitó el acceso de xAI a estos contratos.
- Recolección de datos sensibles: riesgo de que xAI utilice las interacciones de personal militar para entrenar sus modelos futuros, comprometiendo información clasificada.
- Ausencia de salvaguardas: a diferencia de OpenAI y Anthropic, xAI no ha publicado restricciones equivalentes contra usos de alto riesgo.
- Historial de outputs problemáticos: Grok ha generado contenido dañino y sesgado en múltiples ocasiones documentadas.
Ninguna de estas preguntas es retórica. Son preguntas concretas sobre un modelo de IA que ahora tiene acceso a inteligencia militar clasificada de la primera potencia mundial.
La paradoja: ética como desventaja competitiva
El caso expone una tensión estructural que el sector de IA lleva tiempo evitando nombrar directamente: los estándares éticos —los guardrails, las restricciones de uso, las políticas de uso aceptable— no son neutros en términos competitivos. En mercados donde el cliente quiere máxima flexibilidad, el proveedor con menos restricciones gana.
Esto no significa que Anthropic haya tomado la decisión equivocada. Significa que el mercado de IA para defensa y seguridad nacional tiene incentivos diferentes al mercado de IA de consumo, y que las empresas que quieran operar en ambos necesitarán políticas diferenciadas —o elegir uno.
Para el ecosistema tech en general, el episodio también plantea una pregunta incómoda: si el cliente más poderoso del mundo está dispuesto a pagar más por menos restricciones, ¿cuánto tiempo pasará antes de que ese estándar contamine otros sectores regulados como salud, finanzas o infraestructura crítica?
La discusión sobre IA militar ya no es un debate abstracto. Es un debate que lleva meses cobrando urgencia dentro de las propias empresas de IA. El contrato con xAI simplemente lo hace más urgente.
Por qué importa
El contrato Pentágono-xAI no es un caso aislado de política de adquisiciones militares. Es una señal sobre qué tipo de relación entre el Estado y las empresas de IA se está normalizando en EE.UU. Si el estándar all lawful purposes se consolida como requisito en contratos de defensa, las empresas que aspiren a ese mercado tendrán que elegir entre sus políticas éticas y su acceso al cliente más grande y mejor pagado del mundo.
La estructura del problema recuerda a los debates sobre transparencia y regulación de datos de IA que ya enfrentan empresas como xAI en California: los marcos regulatorios avanzan lento, los contratos de mercado avanzan rápido, y el espacio ético queda en el medio.

