La Casa Blanca está preparando una orden ejecutiva para prohibir formalmente el uso de las herramientas de Anthropic en todas las agencias del gobierno federal de EE.UU. — y en la primera audiencia judicial del caso, el Departamento de Justicia se negó a comprometerse a no tomar medidas adicionales contra la empresa.
Esto significa que el conflicto entre Anthropic y la administración Trump no solo no se resolvió: escaló. Y mientras los tribunales intentan ponerle freno, el gobierno ya prepara el siguiente golpe.
¿Qué pasó en la audiencia del 10 de marzo?
El martes 10 de marzo se celebró la primera audiencia del caso de Anthropic contra el Departamento de Defensa ante la jueza Rita Lin del Distrito Norte de California. La empresa pidió que el gobierno se comprometiera a no imponer sanciones adicionales mientras el proceso judicial estuviera en curso.
La respuesta del gobierno fue directa: “No estoy preparado para ofrecer ningún compromiso sobre esa cuestión”, dijo James Harlow, abogado del Departamento de Justicia. La jueza Lin, reconociendo la urgencia del caso para Anthropic, adelantó la audiencia preliminar al 24 de marzo.
El trasfondo: Anthropic presentó dos demandas contra la administración Trump el lunes 9 de marzo, alegando que el gobierno la designó ilegalmente como un supply chain risk —una etiqueta normalmente reservada para adversarios extranjeros— como represalia por negarse a permitir que sus modelos de IA fueran usados para cualquier propósito militar, incluida vigilancia masiva y lanzamiento de misiles sin supervisión humana.
La orden ejecutiva que lo formaliza todo
Según una fuente dentro de la Casa Blanca citada por Wired, el presidente Trump está finalizando una orden ejecutiva que formalizaría la prohibición del uso de las herramientas de Anthropic en todo el gobierno federal. Axios fue el primero en reportar el plan el 9 de marzo.
El alcance de esto es significativo: otras agencias, incluyendo el Departamento del Tesoro, ya anunciaron que estaban descontinuando el uso de los productos de Anthropic. La orden ejecutiva convertiría esa cascada informal en una prohibición oficial y vinculante.
Para las empresas del sector privado que trabajan con el Pentágono, la presión también aumenta: la designación de supply chain risk ya obliga a cualquier contratista militar a certificar que no usa modelos de Anthropic. Muchos clientes privados también están saliendo de acuerdos o renegociando términos.
¿Por qué Anthropic se niega a ceder?
El conflicto se originó porque el Pentágono quería que Anthropic eliminara las restricciones de uso de su contrato existente y firmara uno nuevo que permitiera desplegar Claude para “todos los usos legales”. Anthropic rechazó eso porque teme que esa cláusula cubra vigilancia masiva de ciudadanos estadounidenses y ataques con misiles sin control humano.
La empresa argumenta que la designación de supply chain risk vulnera la Primera Enmienda al castigar su postura pública sobre seguridad en IA. Expertos en derecho constitucional citan el patrón de la administración Trump de usar herramientas legales para presionar a universidades, medios y firmas de abogados que percibe como adversarios.
“Si esto fuera un caso aislado, podrías darle algo de deferencia al presidente”, dijo Harold Hongju Koh, profesor de Yale que trabajó en la administración Obama. “Pero ahora es inconfundible: es solo el último eslabón en una cadena de eventos relacionados con una presidencia punitiva.”
¿Quién sale ganando mientras tanto?
Mientras Anthropic litiga, OpenAI y Google están avanzando para suplantarla en los contratos con el Pentágono. Ambas empresas, aunque también bajo presión interna de sus empleados, acordaron condiciones más amplias con el gobierno.
Lo que queda claro es que el gobierno está enviando un mensaje a toda la industria: la exigencia de licencias irrevocables “para todo uso lícito” no es negociable, y quien se resista enfrenta consecuencias. Christoph Mlinarchik, exfuncionario del Pentágono, lo resumió sin rodeos: “El Pentágono está enviando un mensaje a cada empresa de IA: si desafías al Pentágono, arriesgas la nacionalización y la intervención gubernamental agresiva.”
Desde el inicio del conflicto, el choque entre Anthropic y el Pentágono sobre los límites del uso militar de la IA dejó claro que la alineación con principios de seguridad tiene un costo político real en el entorno actual.
Por qué importa
Este caso es el más importante del sector IA en lo que va de 2026, y no solo para Anthropic. Define si una empresa de tecnología puede mantener guardianes éticos sobre sus herramientas cuando el gobierno federal quiere borrarlos. Si los tribunales fallan a favor del gobierno, el precedente abre la puerta a que el Pentágono exija condiciones similares a cualquier empresa de IA que quiera hacer negocios con Washington.
Para el ecosistema de IA más amplio, la señal es preocupante: la empresa más vocal en materia de seguridad en IA está siendo sistemáticamente excluida del mercado federal justo cuando los modelos de inteligencia artificial están siendo integrados en operaciones militares y de inteligencia. La pregunta de quién tiene veto sobre cómo se usa la IA en contextos de vida o muerte ya no es teórica.
Fuentes
- Wired — Trump Administration Won’t Rule Out Further Action Against Anthropic
- Axios — Trump to hit Anthropic with executive order to remove “woke” AI Claude
- TechCrunch — Anthropic sues Defense Department over supply-chain risk designation
- CBS News — Trump order cutting ties with Anthropic likely coming later this week

