El ejército de EE.UU. atacó más de 3.000 objetivos en Irán desde que comenzaron los bombardeos el sábado pasado —y la IA fue parte de cada paso del proceso. Un informe detallado del Wall Street Journal confirma lo que ya se reportaba en fragmentos: la inteligencia artificial está embebida en la selección de objetivos, la planificación de misiones y la evaluación de daños, “a velocidades que antes no eran posibles”.
El número 3.000 es importante: informes anteriores citaban alrededor de 1.000 objetivos en las primeras 24 horas. La escalada es real. Y la IA está acelerándola de formas que los analistas y la propia cadena de mando militar apenas están empezando a entender.
¿Cómo está usando el ejército la IA en la guerra?
El WSJ detalla cuatro áreas principales donde la IA está operando en este conflicto:
- Recolección de inteligencia: Los servicios de inteligencia israelíes habían monitoreado durante años cámaras de tráfico hackeadas en Teherán y comunicaciones de funcionarios iraníes de alto nivel, usando IA para procesar el torrente de interceptaciones. Ese trabajo de base permitió el ataque que mató al Ayatolá Alí Jamenei.
- Selección de objetivos: La visión computacional potenciada por IA puede identificar rápidamente grandes cantidades de objetivos, incluidos modelos específicos de aeronaves o vehículos. Los usuarios pueden hacer consultas como “identifica cada lanzador de misiles ubicado cerca de un hospital” o configurar alertas automáticas.
- Planificación de misiones de bombardeo: Los modelos procesan variables de ruta, meteorología, cobertura enemiga y restricciones de armamento más rápido de lo que cualquier equipo humano podría hacerlo.
- Evaluación de daños de combate: Después de cada strike, los sistemas de IA procesan imágenes satelitales y señales para evaluar la efectividad del ataque.
El Coronel israelí Yishai Kohn, jefe de planificación del Ministerio de Defensa, lo resumió con una cifra que da vértigo: los analistas humanos pueden revisar como máximo el 4% del material de inteligencia que se recopila normalmente. “El impacto más inmediato de la IA está en la inteligencia. Muchas misiones potenciales simplemente nunca ocurrieron porque no existía el personal para evaluar la información vital”, dijo al WSJ.
Claude en el centro: el dilema que ya reportamos
No es la primera vez que aparece el nombre de Anthropic en esta guerra. El Washington Post reportó que el modelo Claude de Anthropic está jugando un papel clave en las operaciones militares de EE.UU. en Irán —lo que agrega una capa brutal de ironía al conflicto que la compañía libra hoy en los tribunales contra el Pentágono (ver más abajo).
Anthropic tiene dos líneas rojas: no quiere que su tecnología se use para vigilancia masiva de ciudadanos estadounidenses, y cree que Claude no está listo para tomar decisiones de objetivos letales sin supervisión humana en el ciclo de decisión. El Pentágono quiere acceso “para cualquier propósito legal”. La guerra en Irán convirtió ese debate abstracto en algo urgente y real.
El Pentágono: “una empresa de hardware en una era de software”
El primer jefe de IA del Pentágono, el teniente general retirado Jack Shanahan —quien supervisó el Project Maven en Iraq hace casi una década— describió el problema estructural a el WSJ con una frase que resume décadas de burocracia militar: “El Departamento de Defensa fue construido como una empresa de hardware en la era industrial, y ha luchado por convertirse en una empresa digital en una era centrada en el software”.
Las herramientas de IA del Pentágono son similares a ChatGPT y otros LLMs de mercado masivo, pero están limitadas a guerra y entrenadas en información militar específica. Sin embargo, Shanahan advierte que la guerra “sigue siendo una de las empresas humanas más caóticas y complejas”, lo que presenta problemas únicos incluso para la IA más avanzada. Un problema clave: gran parte de los datos de entrenamiento disponibles están desactualizados o son ambiguos.
Y aquí está el nudo del informe: la supervisión sigue siendo lo que el título original llama “underinvested” —subinvertida. EE.UU. está invirtiendo masivamente en capacidades de IA para atacar, pero las estructuras de oversight, rendición de cuentas y verificación de errores no crecen al mismo ritmo.
¿Cuántos humanos hay en el ciclo de decisión?
De cada 10 personas en el ejército, como máximo dos están en combate. El resto maneja logística, administración, inteligencia, comunicaciones. Eso significa que la IA no solo compite con los analistas humanos en capacidad de procesamiento: también ayuda a un ejército que structuralmente tiene pocas personas en posiciones de toma de decisiones operativas.
La pregunta que nadie quiere responder oficialmente es cuántos humanos están realmente aprobando cada objetivo antes de que se ejecute un ataque. El Pentágono se ha negado a clarificar si la IA fue usada para seleccionar como objetivo una escuela primaria en uno de los ataques más controvertidos de la campaña, según Futurism.
Por qué importa
La guerra en Irán es el primer conflicto a gran escala donde la IA de última generación opera como infraestructura central, no como experimento piloto. Y eso cambia el marco del debate sobre gobernanza de IA de manera permanente.
Hasta ahora, la discusión sobre “IA en armas autónomas” era mayormente teórica: comités de ética, frameworks de uso responsable, cartas de principios. Lo que el WSJ documenta es que la IA ya está haciendo trabajo que antes hacían humanos en cada etapa del ciclo de targeting —a velocidades que hacen imposible la supervisión humana real en tiempo real.
El claim de que hay “human in the loop” en cada decisión letal se vuelve difícil de sostener cuando un sistema procesa miles de objetivos por hora y los humanos solo pueden revisar el 4% del material de inteligencia disponible.
Esto no es un problema que se resuelve con buenas intenciones de las empresas de IA. Requiere estructuras legales, tratados internacionales, y mecanismos de accountability que hoy simplemente no existen. La ironía máxima es que Anthropic —la compañía que más ha insistido en estos límites— es al mismo tiempo la cuyos modelos están siendo usados en el conflicto que hace más urgentes esos límites.
Fuentes
- The Decoder — U.S. Military strikes 3,000 targets in Iran with AI support
- Washington Post — Pentagon leverages AI in Iran strikes amid feud with Anthropic
- The Guardian — Iran war heralds era of AI-powered bombing quicker than ‘speed of thought’
- Futurism — Pentagon Refuses to Say If AI Was Used to Select Elementary School as Bombing Target
Contexto: El Pentágono declaró a Anthropic un riesgo de cadena de suministro y DeepMind y la ética de la IA militar.

