Durante las primeras dos semanas del conflicto entre EE.UU., Israel e Irán, el New York Times identificó más de 110 videos e imágenes falsas generadas con IA circulando en X, TikTok y Facebook. Explosiones fabricadas en Tel Aviv, calles que nunca fueron atacadas, soldados protestando que no existen. Combinadas, estas piezas alcanzaron a millones de personas.
Pero la parte más perturbadora no es el volumen de contenido falso: es lo que desapareció al mismo tiempo.
Cuando las imágenes reales se volvieron invisibles
Planet Labs —operador de la mayor flota de satélites de observación de la Tierra del mundo— extendió el retraso de imágenes de alta resolución de la región de cuatro días a dos semanas. El bloqueo cubre todo Irán, bases militares aliadas y los estados del Golfo. Industry leader Vantor (antes Maxar) también restringió imágenes de bases de EE.UU. y aliados. Ambas empresas dijeron al Washington Post que no actuaron por instrucciones gubernamentales.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀El resultado es una tormenta perfecta para la desinformación: justo cuando más se necesitan imágenes verificables para corroborar o desmentir ataques, las fuentes más confiables se cierran. En ese vacío, las imágenes generadas con IA son lo que queda.
Cómo funciona la desinformación con IA en una guerra
El patrón que documenta The Decoder es específico y deliberado. Según la firma de análisis Cyabra, la mayoría de los fakes sirven propaganda pro-iraní: exagerar la potencia militar de Irán y hacer que el conflicto parezca más devastador para los aliados de EE.UU. de lo que realmente es.
El investigador Marc Owen Jones, de Northwestern University, describe el objetivo: fabricar una percepción de fuerza cuando los hechos verificables no la sostienen. El caso más ilustrativo fue el del USS Abraham Lincoln: tras que los Guardianes de la Revolución iraní afirmaran haberlo atacado, imágenes de IA de un portaaviones en llamas inundaron las redes. EE.UU. dijo que el ataque falló y el barco estaba intacto.
A diferencia del material falso que ya llegó a medios alemanes como Der Spiegel, lo más viral no son piezas que engañan a periodistas: son piezas diseñadas para escalar en algoritmos de plataformas sociales. El contenido de IA falso se ve más cinematográfico —nubes de hongo perfectas, misiles hipersónicos brillantes— que el footage real, que suele ser granulado, nocturno, tomado de lejos.
El OSINT está en jaque
Durante la última década, el análisis de inteligencia de fuentes abiertas (OSINT) se convirtió en una herramienta clave para verificar o desmentir afirmaciones en conflictos: investigadores y periodistas usaban imágenes satelitales públicas para corroborar o refutar lo que los gobiernos decían.
Ese mecanismo está roto en dos frentes. Primero, porque las imágenes satelitales más fiables ya no son públicas en tiempo real. Segundo, porque actores malintencionados han aprendido a explotar el lenguaje y la estética del OSINT para legitimar contenido falso: cuentas en redes sociales que presentan imágenes satelitales generadas con IA como “inteligencia verificada”, minando la confianza en el trabajo de los investigadores reales.
El Tehran Times, alineado con el régimen, publicó lo que presentaba como una imagen satelital mostrando la destrucción de una instalación de radar de EE.UU. en Qatar. Era una imagen de Google Earth manipulada con IA.
Por qué importa más allá del conflicto
Este escenario no es una curiosidad de un conflicto específico. Es un ensayo general de cómo funciona la información en cualquier crisis futura donde haya incentivos para controlar la narrativa visual.
La IA generativa democratizó la producción de contenido convincente. Los controles de exportación de imágenes satelitales —formalmente independientes de los gobiernos, pero funcionalmente alineados con sus intereses en tiempos de guerra— eliminan el principal mecanismo de verificación independiente. Y las plataformas sociales, diseñadas para amplificar lo que genera reacción, no distinguen entre un misil real y uno generado en segundos.
La combinación ya era previsible. La IA falsa ya había desbordado X al inicio del conflicto con Irán. Lo que añade este nuevo episodio es la confirmación de que la desaparición deliberada de imágenes reales no es un efecto secundario: es parte del ecosistema de desinformación, y no siempre requiere un actor estatal para ocurrir.
Para quienes cubren, consumen o simplemente reciben información durante un conflicto: la ausencia de imágenes verificables no es neutralidad. Es una condición que beneficia a quien quiere que la narrativa quede abierta.

