Anthropic presentó esta mañana dos demandas simultáneas contra el Departamento de Defensa, alegando que la decisión del gobierno de etiquetarla como “riesgo de cadena de suministro” es inconstitucional y viola su libertad de expresión. Es el siguiente capítulo del enfrentamiento más significativo entre una empresa de IA y el gobierno de EE.UU. hasta la fecha.
Las demandas se presentaron en el Tribunal Federal del Distrito Norte de California y ante la Corte de Apelaciones del Circuito de DC. Llegan cinco días después de que el Pentágono formalizara el jueves pasado la designación de supply chain risk —la primera vez en la historia que esa herramienta de blacklisting se usa contra una empresa estadounidense.
¿Qué significa ser declarado “riesgo de cadena de suministro”?
La designación de supply chain risk es un mecanismo legal del Pentágono normalmente reservado para adversarios extranjeros —piensa en empresas chinas vinculadas al gobierno de Beijing. Su efecto práctico es brutal: cualquier empresa o agencia que trabaje con el Pentágono debe certificar que no usa los modelos de Anthropic. Eso incluye a todos sus contratistas, proveedores y socios.
Para Anthropic, cuyo modelo Claude es el principal LLM aprobado para uso en sistemas clasificados del gobierno de EE.UU., eso significa quedar excluida de uno de sus mercados más importantes de un plumazo. La compañía alega en su demanda californiana que los accionistas, clientes y socios están siendo “dañados de manera irreparable” y que podría perder cientos de millones de dólares.
El contraste con lo que Dario Amodei dijo a CBS News la semana pasada es notable: el CEO afirmó que “el impacto de esta designación es bastante pequeño” y que la empresa “va a estar bien”. La demanda que Anthropic presentó esta mañana dice lo contrario.
¿Cuál fue el detonante del conflicto?
El enfrentamiento tiene semanas de historia, pero el núcleo es sencillo: Anthropic tiene dos líneas rojas sobre cómo el Pentágono puede usar Claude.
- No quiere que su tecnología se use para vigilancia masiva de ciudadanos estadounidenses.
- No cree que Claude esté listo para alimentar armas autónomas letales sin supervisión humana en el ciclo de targeting.
El Secretario de Defensa Pete Hegseth argumentó que el Pentágono debe tener acceso a sistemas de IA para “cualquier propósito legal”. Anthropic rechazó firmar un contrato sin las restricciones. El Pentágono respondió con la designación. Anthropic respondió con las demandas.
Las demandas afirman que la administración Trump está castigando a la empresa por negarse a cumplir las “demandas ideológicas del gobierno”, violando el derecho constitucional al discurso protegido.
“La Constitución no permite al gobierno usar su enorme poder para castigar a una empresa por su discurso protegido”, dice la demanda californiana.
La ironía del contexto: Claude ya está siendo usado en Irán
Todo esto ocurre mientras el Washington Post y otros medios reportan que Claude —el mismo modelo de Anthropic— está siendo usado activamente en la campaña militar de EE.UU. en Irán, incluyendo en la selección de objetivos de ataque. Como reportamos hoy, el ejército ha atacado más de 3.000 objetivos en Irán desde el sábado, con IA operando en cada fase del proceso.
Eso crea una paradoja difícil: Anthropic rechaza que el Pentágono use Claude sin restricciones, pero el Pentágono ya lo está usando. La empresa dice en su demanda que está “comprometida a proporcionar IA para propósitos de seguridad nacional”, pero con sus límites. El gobierno quiere el acceso sin los límites.
¿Qué pide Anthropic en los tribunales?
La empresa solicita que los tribunales anulen la designación de supply chain risk y que declaren que las acciones del Pentágono son inconstitucionales. También quiere continuar las negociaciones con el gobierno.
“Buscar revisión judicial no cambia nuestro compromiso de larga data de aprovechar la IA para proteger nuestra seguridad nacional, pero es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios”, dijo un vocero de Anthropic al The Guardian.
La empresa también argumenta que tiene historial de colaborar con el DoD para modificar sus sistemas para casos de uso específicos —sugiriendo que la posición de Anthropic no es “no al ejército” sino “sí, con condiciones”.
¿Qué empresas están en el medio?
El daño colateral de la designación afecta a decenas de contratistas de defensa y agencias gubernamentales que usan Claude. Todos ellos deben ahora elegir: cortar a Anthropic o arriesgarse a perder contratos con el Pentágono. Eso convierte la disputa bilateral en una presión sobre todo el ecosistema de proveedores del gobierno federal.
Por qué importa
Este caso es más importante que la disputa entre Anthropic y el Pentágono. Es el primer test serio de si las empresas de IA pueden mantener restricciones de uso sobre sus modelos cuando el gobierno federal quiere acceso sin condiciones.
Si el Pentágono gana, el precedente es claro: cualquier empresa que desarrolle tecnología con aplicaciones de seguridad nacional no puede negarse a entregársela al gobierno en los términos que el gobierno dicte. Eso cambia fundamentalmente el poder de negociación de todas las empresas de IA que trabajan con el sector público.
Si Anthropic gana, el precedente también es poderoso: que las empresas tienen derecho constitucional a establecer condiciones de uso para su tecnología, incluso frente a la presión del mayor comprador del mundo.
Lo que sea que resulte, la era en que las empresas de IA podían “colaborar” con el gobierno sin que esa colaboración generara conflictos de gobernanza reales terminó. Ahora es política, constitución, y cientos de millones de dólares en juego.
Fuentes
- TechCrunch — Anthropic sues Defense Department over supply chain risk designation
- The Guardian — AI firm Anthropic sues US defense department over blacklisting
- The New York Times — Anthropic Sues Department of Defense Over ‘Supply Chain Risk’ Label
- CNBC — Anthropic sues Trump administration over Pentagon blacklist
Contexto esencial: El Pentágono declaró a Anthropic un riesgo de cadena de suministro y Claude dice NO al Pentágono: Anthropic rechaza armas autónomas. Ver también: EE.UU. atacó 3.000 objetivos en Irán con IA.

