Imagina que el ejército más poderoso del mundo te llama y te dice: “Queremos usar tu IA, pero necesitamos que le quites todos los límites de seguridad.” ¿Qué harías? Anthropic, la empresa detrás de Claude, eligió decir que no. Y esa decisión desató una cadena de eventos que nadie esperaba.
Lo que pidió el Pentágono
A principios de febrero de 2026, el Departamento de Defensa de Estados Unidos se acercó a Anthropic con una propuesta: querían usar Claude para aplicaciones militares, pero necesitaban que se eliminaran los guardrails —los mecanismos de seguridad que impiden que la IA ayude con tareas peligrosas.
¿Para qué exactamente? Dos usos que a Anthropic le pusieron los pelos de punta:
- Armas autónomas sin supervisión humana: sistemas capaces de identificar y atacar objetivos sin aprobación humana.
- Vigilancia masiva doméstica: usar la IA para monitorear a ciudadanos estadounidenses a gran escala.
Anthropic dijo que no. En voz alta.
Dario Amodei, CEO de Anthropic, fue directo:
“No podemos en buena conciencia remover las salvaguardas de seguridad de Claude para este tipo de aplicaciones militares.”
Anthropic dejó claro que estaba dispuesta a colaborar con el gobierno en aplicaciones de defensa que no implicaran quitar esos límites. Pero armas autónomas y vigilancia masiva sin control humano estaban fuera de la mesa.
Trump reaccionó. Fuerte.
La administración Trump respondió en dos movimientos:
- Ordenó a todas las agencias federales dejar de usar Claude inmediatamente.
- Designó a Anthropic como “riesgo de cadena de suministro” — una etiqueta que en contratación pública es una señal de alerta roja.
OpenAI aprovechó el momento
Mientras Anthropic recibía el golpe, OpenAI no tardó ni 48 horas en cerrar un acuerdo con el Departamento de Defensa para proveer IA a redes militares clasificadas.
El contraste fue brutal: una empresa dijo no por principios, la otra llegó corriendo con el contrato listo.
No es la primera vez que el sector enfrenta esta tensión. Más de 200 empleados de Google DeepMind han pedido públicamente líneas rojas para la IA militar, señal de que el debate no está resuelto dentro de ninguna de estas empresas.
El efecto Streisand: Claude al #1
Aquí viene la parte que nadie anticipó. Cuando la noticia se hizo viral, la gente empezó a descargar Claude a una velocidad sin precedentes. Claude subió al #1 en el App Store de iPhone en Estados Unidos, superando a ChatGPT.
Anthropic tuvo que publicar un comunicado reconociendo outages por “demanda sin precedentes”. Sus servidores no estaban preparados.
No es casualidad que esto ocurra justo cuando Claude venía expandiendo su ecosistema con conectores gratuitos, tareas programadas y llegada a Windows. El conflicto con el Pentágono lo catapultó al mainstream.
Las consecuencias
La designación como “riesgo de cadena de suministro” tuvo efectos reales:
- Varias empresas del sector defensa que usaban Claude comenzaron a evaluar alternativas.
- Contratistas gubernamentales migraron a otras plataformas para no complicar sus relaciones con Washington.
Pero Anthropic no se quedó quieta: anunció que planea retar la designación ante los tribunales, argumentando que es inconstitucional.
Por qué esto importa aunque no uses Claude
Lo que está en juego no es solo si Claude puede usarse en el Pentágono. Es una pregunta mucho más grande: ¿quién decide los límites de la IA?
Anthropic tomó una postura: nosotros ponemos los límites, y no los movemos aunque pierdamos contratos millonarios. OpenAI tomó la postura opuesta: el cliente manda. La respuesta masiva del público sugiere que hay un apetito real por empresas de IA que tengan principios visibles y los defiendan.
El juicio que viene va a ser muy interesante. Y el resultado va a importar mucho más allá de Anthropic y el Pentágono.
Fuentes: The Guardian · AP News · Axios · CNN · CNBC

