El Pentágono declaró a Anthropic un riesgo de cadena de suministro — y el ejército sigue usando Claude

Share

El Pentágono acaba de declarar a Anthropic un “riesgo de cadena de suministro” — una etiqueta que normalmente se reserva para adversarios extranjeros como China o Rusia. El motivo: Anthropic se negó a permitir que su IA fuera usada para vigilancia masiva de ciudadanos americanos o para armas letales autónomas sin supervisión humana. La respuesta del Departamento de Defensa fue tratarlos como un enemigo.

Es una de las situaciones más absurdas y reveladoras de la relación entre el gobierno estadounidense y la industria de IA. Y está lejos de terminar.

¿Qué significa exactamente ser un “riesgo de cadena de suministro”?

La designación, confirmada el 5 de marzo de 2026 según Bloomberg, obliga a cualquier empresa o agencia que trabaje con el Pentágono a certificar que no usa los modelos de Anthropic. Es un mecanismo legal diseñado históricamente para bloquear tecnología de proveedores extranjeros sospechosos — no para presionar a startups americanas a ceder el control ético de sus sistemas.

El conflicto viene de semanas atrás: el Departamento de Defensa (ahora rebautizado “Department of War” por la administración Trump) quería acceso irrestricto a Claude “para todos los propósitos legales”. El CEO de Anthropic, Dario Amodei, puso dos líneas rojas: no a la vigilancia masiva de americanos, y no a armas autónomas que tomen decisiones de vida o muerte sin intervención humana. El Pentágono dijo que esas condiciones eran inaceptables.

La paradoja que lo dice todo

Aquí viene lo kafkiano: el ejército americano sigue usando Claude en este momento. Según Bloomberg, Claude es una de las principales herramientas instaladas en el Maven Smart System de Palantir, que las fuerzas militares estadounidenses en Medio Oriente usan activamente en la campaña de Irán para gestionar datos operacionales.

Es decir: el Pentágono acaba de declarar que Anthropic es un riesgo de cadena de suministro… mientras usa sus modelos en operaciones militares activas. El mismo gobierno que obliga a contratistas a certificar que no usan Claude, lo usa para gestionar información en zona de guerra.

Anthropic va a los tribunales

Dario Amodei respondió rápido. En una declaración oficial, anunció que Anthropic impugnará la decisión en los tribunales, calificando la designación de “legalmente insostenible”. Su argumento central: la ley de riesgo de cadena de suministro existe para proteger al gobierno, no para castigar a proveedores que no se pliegan a demandas sin restricciones.

“El Secretario de Guerra está obligado a usar los medios menos restrictivos necesarios para lograr el objetivo de proteger la cadena de suministro”, escribió Amodei. Y añadió que la designación en la práctica es mucho más limitada de lo que parece: aplica solo a uso directo de Claude en contratos con el Departamento de Guerra, no a todos los clientes de Anthropic que también trabajen con el gobierno.

¿Por qué importa más allá de Anthropic?

Esta situación sienta un precedente peligroso. Si el gobierno puede designar a una empresa tecnológica americana como “riesgo de cadena de suministro” porque esa empresa se niega a entregar control irrestricto de su tecnología, cualquier lab de IA que mantenga estándares éticos queda expuesto al mismo mecanismo.

Dean Ball, ex asesor de IA en la Casa Blanca durante Trump, lo llamó una “agonía del fin de la república americana”, argumentando que el gobierno está tratando a innovadores domésticos peor que a adversarios extranjeros. Cientos de empleados de OpenAI y Google firmaron cartas urgiéndole al Pentágono que retire la designación.

Los clientes de defensa de Anthropic están respondiendo con los pies: según reportes, están buscando alternativas. La ironía es que los únicos sistemas de IA con clasificación para entornos de seguridad eran los de Anthropic. El Pentágono acaba de degradar su propia capacidad tecnológica por un pulso político.

Este escenario es exactamente el dilema que DeepMind había anticipado sobre IA militar: quién controla los valores de los sistemas de IA cuando el cliente es el estado. Anthropic trazó una línea. El estado la llamó un riesgo. El resultado es que todos perdemos.


Fuentes

Leer más

Otras noticias