El jueves 26 de marzo, una jueza federal de San Francisco le puso freno a uno de los movimientos más agresivos del gobierno Trump contra una empresa de IA. La jueza Rita Lin emitió una medida cautelar que bloquea temporalmente la designación del Departamento de Defensa —que bajo Trump se llama a sí mismo “Departamento de Guerra”— que etiquetó a Anthropic como un riesgo de cadena de suministro. El efecto inmediato: la empresa puede operar sin esa mancha mientras dure el proceso judicial.
El fallo es mucho más que un alivio legal para el creador de Claude. Es un termómetro de qué tan lejos pueden llegar las agencias federales cuando intentan regular IA a través de sanciones y qué pasa cuando el poder ejecutivo usa instrumentos administrativos para castigar a una empresa que simplemente no quería hacer lo que el Pentágono pedía.
¿Qué dijo la jueza exactamente?
Lin no se anduvo con rodeos. En su resolución escribió que la designación de Anthropic como riesgo de cadena de suministro es “probablemente contraria a la ley y arbitraria y caprichosa”. La frase clave es esta: “El Departamento de Guerra no provee ninguna base legítima para inferir que, por el hecho de que Anthropic insiste en restricciones de uso, podría convertirse en un saboteador”.
Aprende IA con nosotros
Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.
👥 Únete gratis 🚀Dicho en simple: el gobierno intentó justificar el blacklist diciendo que Anthropic era potencialmente desleal. La jueza le respondió que tener políticas de uso responsable no equivale a ser una amenaza.
La resolución “restaura el statu quo” al 27 de febrero, antes de que el Pentágono emitiera las directivas que bloquearon el uso de Claude en el gobierno federal. No obliga al Departamento de Guerra a volver a usar Claude, ni le impide que cancele sus contratos con Anthropic. Pero sí le prohíbe usar la designación de riesgo de cadena de suministro como justificación para hacer eso.
Cómo llegamos hasta aquí
El conflicto tiene raíces concretas. El Pentágono llevaba años usando las herramientas de Claude para redactar documentos sensibles y analizar datos clasificados. Pero este mes comenzó a desconectarse de la plataforma después de que surgieron tensiones por las restricciones de uso que Anthropic pone a su tecnología.
La administración Trump argumenta que esas restricciones —básicamente, que Anthropic no quiere que sus modelos se usen sin límites para operaciones militares— demuestran que la empresa no puede ser de confianza para aplicaciones de defensa. El Pentágono declaró a Anthropic riesgo de cadena de suministro en un movimiento que muchos en el sector leyeron como un castigo por no ceder a las presiones del gobierno.
La consecuencia fue brutal para el negocio: empresas que trabajan con el sector defensa congelaron conversaciones con Anthropic. Ejecutivos de la compañía dijeron en audiencias previas que el fallout podía costarles miles de millones. Anthropic respondió con dos demandas argumentando que las sanciones eran inconstitucionales.
¿Qué cambia y qué no?
El impacto inmediato del fallo es parcial. La orden no entra en vigor hasta dentro de una semana. Y hay una segunda demanda presentada en el Tribunal de Apelaciones de Washington DC —enfocada en una ley distinta— que aún está sin resolver.
Lo que sí cambia: el Pentágono y otras agencias federales ya no pueden usar la etiqueta de riesgo de cadena de suministro como escudo legal para cancelar contratos con Anthropic o presionar a contratistas que usan Claude a abandonar la plataforma. Pueden seguir tomando decisiones de negocios, pero deben fundamentarlas en regulaciones y estatutos aplicables, no en la designación ahora bloqueada.
Para Anthropic, el fallo tiene valor simbólico inmediato: demuestra a clientes que dudan —sobre todo en el sector privado— que tiene argumentos legales sólidos. No resuelve la disputa, pero cambia el peso de la prueba.
La trampa de regular IA con sanciones
Aquí está la lectura que va más allá del caso Anthropic: la administración Trump intentó resolver un desacuerdo sobre condiciones de uso —una negociación comercial entre un proveedor y su cliente— usando instrumentos diseñados para excluir actores que representan riesgos reales de seguridad nacional.
Ese tipo de escalada tiene un costo. La jueza lo nombró explícitamente: el Pentágono pareció “cripple” y “punish” a Anthropic. Eso no es regulación; es coerción.
El problema de fondo es estructural. En ausencia de un marco regulatorio claro para la IA —algo que el Congreso ha evitado sistemáticamente establecer—, los actores institucionales improvisan con las herramientas que tienen. A veces esas herramientas son incompatibles con el contexto. Una designación de riesgo de cadena de suministro fue diseñada para actores que amenazan activamente la seguridad de sistemas críticos. Aplicarla a una empresa que simplemente tiene políticas de uso responsable es un estiramiento legal que este fallo acaba de rechazar.
Vale la pena recordar que este conflicto no ocurre en el vacío. Mientras legisladores como Sanders intentan imponer moratorias a los data centers de IA, la administración Trump usa mecanismos administrativos para castigar a empresas que no cooperan con el uso militar sin restricciones. Son dos extremos opuestos que comparten un mismo déficit: ninguno parte de un marco coherente.
Por qué importa
El caso Anthropic es la primera prueba de estrés real para una pregunta que el sector IA tendrá que responder en los próximos años: ¿qué pasa cuando una empresa pone límites éticos a su tecnología y un gobierno no quiere aceptarlos?
La respuesta que dio hoy la jueza Lin —básicamente, que tener principios no te convierte en saboteador— es un precedente importante. Pero es solo una medida cautelar. El proceso largo está por comenzar.
Lo que este fallo sí dejó claro es que usar instrumentos de seguridad nacional como arma comercial tiene costos legales. Y que la IA, aunque sea nueva, no escapa a los principios básicos del derecho administrativo.

