El “algoritmo Terminator” no es una metáfora de película. Es la integración real de IA en la cadena de destrucción militar —detección, identificación, selección y ataque— a velocidades que superan la capacidad de respuesta humana. Ya opera en varios conflictos activos, y la pregunta ya no es si existe, sino qué hacemos con eso.
Lo que está pasando en Ucrania y lo que ha escalado con la doctrina de drones de Irán marca un punto de inflexión que va mucho más allá de la geopolítica.
Ucrania: el laboratorio de drones más grande del mundo
Si hay un conflicto que transformó el uso de drones en estándar operativo a escala masiva, es el de Ucrania. Las fuerzas armadas ucranianas han confirmado al menos 215.000 objetivos alcanzados mediante vehículos aéreos no tripulados (UAVs). El país ya tiene capacidad de producir hasta 10 millones de drones al año.
Pero la escala no es lo más relevante. Es la autonomía. Empresas como Swarmer han desarrollado software que permite que pequeños enjambres de drones se comuniquen entre sí, asignen funciones, decidan secuencias de ataque y se adapten en tiempo real si uno de ellos falla —todo a partir de un único objetivo marcado por un operador humano. El resultado: de nueve personas a tres por misión, con un solo piloto coordinando múltiples aeronaves simultáneamente.
El vicepresidente ucraniano Mykhailo Fedorov fue explícito: “Estamos tratando de alcanzar la autonomía total. Estamos entrenando nuestros modelos para reconocer objetivos y entender la priorización de blancos”. Y lo está respaldando con datos: Ucrania acaba de abrir su plataforma de datos de combate a aliados y empresas para entrenar modelos de IA de guiado autónomo, con millones de imágenes anotadas de vuelos reales.
El rol de Irán: cuando el ataque es más rápido que cualquier respuesta humana
Si Ucrania democratizó el drone barato, Irán ha llevado la lógica un paso más lejos: integrar decisiones de ataque en sistemas que operan más rápido de lo que cualquier humano puede procesar y autorizar. Sus drones tipo Shahed —con costes de entre 20.000 y 50.000 dólares por unidad— se emplean en tácticas de enjambre diseñadas para saturar defensas enemigas.
La paradoja es elegante y peligrosa: cuando el ataque es tan rápido y masivo que ningún operador puede responder, el defensor también debe automatizar su respuesta. Ambos lados ceden la decisión a los algoritmos. La alianza entre Irán y Rusia —drones a cambio de inteligencia satelital y tecnología GLONASS— ha acelerado esta dinámica en múltiples frentes.
El dilema ético de la “kill chain” sin humano
La “kill chain” automatizada es el ciclo completo de detección, selección y ataque ejecutado por IA sin intervención humana. Es exactamente lo que la ONU lleva años intentando regular bajo el concepto de LAWS —armas letales autónomas, por sus siglas en inglés.
- Washington y sus aliados sostienen públicamente que debe mantenerse un operador humano en la cadena de decisión.
- En la práctica, el Pentágono comprometió 50 millones de dólares para proveer a Ucrania de 33.000 drones con IA capaces de reconocer objetivos a distancias de hasta un kilómetro y resistir interferencias electrónicas.
- En el verano de 2025, drones de asalto autónomos lograron por primera vez la captura de prisioneros sin intervención de tropas terrestres —calificado como un hecho “sin precedentes” en la guerra moderna.
La brecha entre lo que se declara y lo que se financia es cada vez más difícil de ignorar. Anthropic ya enfrentó la presión del Pentágono para usar sus modelos en aplicaciones militares, mostrando que esta tensión no se limita al campo de batalla: afecta directamente a las empresas que desarrollan los modelos.
¿Por qué debería importarte si no haces armamento?
La tecnología detrás de los drones autónomos —visión por computadora, modelos de decisión en tiempo real, coordinación de agentes IA, edge computing en condiciones extremas— es exactamente la misma que está transformando la logística, la manufactura y la seguridad corporativa.
Lo que el conflicto en Ucrania ha demostrado es que los ciclos de adopción en entornos de alta presión son brutalmente cortos. Lo que tardó décadas en madurar en laboratorio se convierte en estándar operativo en meses cuando la urgencia lo exige. Eso tiene implicaciones directas para cualquier persona que trabaje en IA aplicada, robótica o automatización de decisiones.
Además, el debate ético sobre sistemas que toman decisiones con consecuencias irreversibles no es exclusivo del ámbito militar. Las preguntas sobre supervisión humana, explicabilidad y responsabilidad en decisiones automatizadas son exactamente las que los reguladores —y los inversores— están empezando a hacer a las startups de IA en salud, finanzas y justicia. Esta discusión sobre los límites éticos de la IA lleva años avanzando, pero la realidad del campo de batalla la ha acelerado de forma irreversible.
Por qué importa
El verdadero impacto del algoritmo Terminator no es técnico: es filosófico y estratégico. Redefine quién —o qué— tiene la última palabra en un momento crítico. En el campo de batalla, esa decisión puede costar vidas. En los negocios, puede costar clientes, reputación o cumplimiento regulatorio.
La pregunta que el ecosistema tech debe hacerse no es si la IA tomará decisiones autónomas —ya lo hace, en guerra y en paz. La pregunta es bajo qué condiciones, con qué límites y con qué mecanismos de auditoría. Diseñar esos límites hoy es la diferencia entre tecnología que escala con responsabilidad y tecnología que escala sin control.
La guerra en Ucrania, la doctrina de drones de Irán y el anuncio de esta semana sobre datos de combate abiertos para entrenamiento de IA dibujan un panorama inequívoco: el algoritmo Terminator ya existe. Lo que todavía está por decidirse es quién lo governa.
Fuentes
- Ecosistema Startup — IA en guerra: el algoritmo Terminator ya existe
- Xataka — Si Ucrania impulsó el uso de drones, Irán ha disparado el algoritmo Terminator
- Expansión — Inteligencia artificial para ayudar a ganar la guerra
- Infobae / The Economist — ¿Puede Ucrania ayudar a derrotar los enjambres de drones de Irán?

