Un oficial de Defensa reveló a MIT Technology Review que el ejército de Estados Unidos podría usar sistemas de IA generativa para ordenar listas de objetivos y recomendar cuáles atacar primero. La decisión final seguiría en manos humanas, pero la idea de poner un chatbot a priorizar blancos ya no suena a experimento de laboratorio: suena a doctrina en construcción.
La revelación llega en el peor momento posible. El Pentágono sigue bajo presión por el ataque a una escuela de niñas en Irán, mientras distintos medios reportan que herramientas como Claude ya han sido usadas en operaciones militares recientes. La pregunta ya no es si la IA entró en la cadena de targeting. La pregunta es cuánto poder práctico le están dando.
¿Qué dijo exactamente el oficial sobre el uso de IA?
Según MIT Technology Review, el escenario descrito es el siguiente: una lista de posibles objetivos se alimenta a un sistema de IA generativa desplegado en entornos clasificados, y luego humanos le piden al modelo que analice esa información y la ordene por prioridad. En ese ranking podrían pesar factores como la ubicación actual de aeronaves o la urgencia operativa de cada blanco.
El oficial no confirmó que ese flujo ya esté ocurriendo hoy tal cual, pero sí lo presentó como un caso de uso plausible y coherente con el rumbo actual. Ahí está la parte importante: el propio Pentágono ya imagina a los modelos conversacionales no solo como asistentes de oficina o resumidores de documentos, sino como una interfaz para acelerar decisiones de targeting.
Eso cambia bastante la discusión. Una cosa es usar IA para clasificar imágenes, detectar vehículos o resumir reportes. Otra, muy distinta, es usar un modelo generativo para priorizar qué objetivo va primero en la cola.
¿En qué se diferencia esto de Maven?
El ejército estadounidense lleva años trabajando con Project Maven, una iniciativa de “big data” militar que usa visión computacional y otros sistemas más clásicos para analizar enormes volúmenes de imágenes y video. Maven ya ayudaba a identificar objetivos potenciales sobre mapas y paneles de control, con humanos revisando la información.
Lo nuevo, según MIT Technology Review y también el contexto recogido por la BBC, es la capa conversacional. En vez de obligar al operador a inspeccionar el mapa, filtrar datos y sacar conclusiones paso a paso, el modelo puede devolver una respuesta sintetizada: estos son los blancos prioritarios, este es el orden, estas son las razones. Eso reduce fricción, pero también hace más difícil auditar el razonamiento.
Y ahí está el verdadero problema. Un mapa te obliga a mirar. Un chatbot te invita a confiar.
OpenAI, Grok, Claude: la guerra por ser la IA del Pentágono
El artículo de MIT Technology Review menciona que, en teoría, modelos como ChatGPT y Grok podrían usarse en este tipo de escenarios clasificados, porque ambas compañías ya alcanzaron acuerdos con el Pentágono. La BBC añadió que OpenAI modificó su acuerdo tras críticas públicas y prometió más guardrails, incluyendo restricciones sobre vigilancia doméstica. Pero una limitación contractual no equivale automáticamente a una limitación técnica.
Anthropic, por su parte, había logrado entrar antes en entornos clasificados, aunque después fue tratada como “supply chain risk” por su negativa a permitir usos sin restricciones. Ese conflicto ya lo veníamos siguiendo en descubre.ai cuando contamos cómo Anthropic demandó al Pentágono por su veto. Y la preocupación de fondo tampoco es nueva: también revisamos el contexto cuando se reportó que EE.UU. atacó 3.000 objetivos en Irán con apoyo de IA.
Lo que estamos viendo no es solo una discusión ética. Es una pelea industrial y geopolítica por quién pone la interfaz de decisión dentro del aparato militar más poderoso del mundo.
El problema no es solo la alucinación: es la velocidad
Cuando se habla de IA militar, casi siempre aparece la objeción obvia: los modelos pueden alucinar, equivocarse o inventar relaciones que no existen. Todo eso es cierto. Pero en targeting hay otro peligro igual de serio: la velocidad institucional que crean estas herramientas.
- Comprimir el tiempo de duda: si una IA ordena opciones en segundos, la presión por actuar rápido aumenta aunque el análisis siga siendo frágil.
- Desplazar la responsabilidad: aunque haya un humano en el loop, ese humano puede terminar validando una recomendación ya empaquetada por el sistema.
- Normalizar la interfaz conversacional: cuanto más natural se vuelve pedirle “prioriza estos objetivos”, más fácil es olvidar la opacidad del modelo que responde.
Varios expertos citados por Euronews advirtieron precisamente eso: la IA puede volverse una capa invisible dentro de la toma de decisiones militares, difícil de observar desde afuera y tentadora para quienes quieren más rapidez que trazabilidad.
Por qué importa
Esta noticia importa porque muestra un salto cualitativo. Ya no hablamos solo de IA clasificando datos o detectando objetos en video. Hablamos de IA generativa proponiendo orden, prioridad y contexto para decisiones letales. Aunque el disparo final lo autorice una persona, el ranking previo puede moldear todo lo que viene después.
También importa porque deja en evidencia un patrón que se repite fuera del ámbito militar: cuando una interfaz simplifica una tarea compleja, tendemos a sobreconfiar en ella. En guerra, ese sesgo no se traduce en un bug de producto ni en una respuesta mediocre. Se traduce en vidas.
La promesa del Pentágono es “humano en el loop”. Bien. Pero mientras más valor operativo le den al modelo para priorizar y resumir, más cerca estarán de otra realidad: humanos supervisando decisiones ya preformateadas por una máquina. Y esa frontera es bastante más peligrosa de lo que suena en una nota de prensa.

