Desde que EE.UU. e Israel iniciaron sus ataques contra Irán el 28 de febrero, las redes sociales se convirtieron en un campo de batalla paralelo. En X (Twitter), el caos es total: imágenes falsas de bombarderos derribados con millones de vistas, videos de edificios en llamas generados por IA compartidos por funcionarios iraníes, y —el colmo— el propio Grok generando imágenes de IA para “ilustrar” sus respuestas cuando no puede verificar un video.
Lo documentó WIRED este martes con un informe basado en análisis de investigadores del Institute for Strategic Dialogue (ISD) y del experto en desinformación Tal Hagin: nunca habíamos visto tanta IA generativa usada como arma de desinformación en un conflicto activo.
¿Cómo funciona la maquinaria de deepfakes de guerra?
El patrón es claro. Cuando Hagin le pidió a Grok que verificara un video de supuestos misiles iraníes impactando Tel Aviv —compartido por medios estatales iraníes— el chatbot de xAI identificó mal la ubicación y la fecha. Pero lo peor no fue el error: fue la solución que eligió. Grok respondió con una imagen generada por IA para “ilustrar” su punto, amplificando el problema en vez de contenerlo.
“Ahora Grok responde con AI slop de destrucción”, escribió Hagin en X. “Cocinado, os lo digo.”
El panorama completo que describe el informe de WIRED incluye:
- Contenido de alto impacto: Una imagen de un bombardero B-2 de EE.UU. siendo derribado por Irán, con soldados estadounidenses detenidos, fue vista más de un millón de veces antes de ser eliminada. Imágenes de Delta Force capturada superaron los 5 millones de vistas antes de la baja.
- Funcionarios iraníes como actores: El 2 de marzo, oficiales y medios estatales iraníes compartieron videos generados por IA de un edificio en llamas en Bahrein. Realistas al punto de engañar a usuarios no entrenados.
- Redes de propaganda coordinada: El ISD documentó redes pro-régimen en X distribuyendo contenido antisemita generado por IA, representando a judíos ortodoxos liderando soldados estadounidenses a la guerra.
- Contenido de desinformación política: Un video falso que mostraba a Trump en una escena sexualmente explícita con menores acumuló 6,8 millones de vistas antes de ser eliminado.
El problema de fondo: herramientas baratas, consecuencias caras
La proliferación de herramientas de generación de imagen y video —Midjourney, Sora, Kling, Runway, decenas más— ha democratizado la producción de contenido convincente. En 2020, fabricar un deepfake creíble requería recursos significativos. En 2026, cualquier cuenta con acceso a una tarjeta de crédito puede generar en minutos un video de calidad suficiente para engañar a millones.
X introdujo una medida de emergencia: demonetizar cuentas con check azul que publiquen videos de conflictos armados generados por IA sin etiqueta. Pero la empresa no respondió a la consulta de WIRED sobre cuántas cuentas había efectivamente penalizado desde la implementación.
El problema no es solo de X. El mismo martes, el Oversight Board de Meta —del que ya hemos hablado por su crítica a las herramientas de deepfakes de Facebook e Instagram— publicó un fallo criticando el enfoque de la empresa para etiquetar contenido IA: “ni lo suficientemente robusto ni lo suficientemente comprehensivo para manejar la escala y velocidad de la desinformación generada por IA, particularmente durante crisis y conflictos.” Meta respondió que “bienvenía los hallazgos”.
Grok y el problema de verificación en tiempo real
La situación de Grok expone una tensión fundamental en el diseño de chatbots con acceso a redes sociales en tiempo real. Cuando no tienes suficiente información para verificar algo, ¿qué haces? Decir “no sé” sería la respuesta correcta. Pero Grok, ante la presión de parecer útil, eligió generar contenido propio —exactamente lo que un sistema de verificación de hechos no debería hacer.
No es el primer tropiezo de la IA de xAI con contenido sensible. Grok ya generó polémica cuando produjo respuestas ofensivas sobre tragedias deportivas y Elon Musk lo defendió como el único chatbot que “dice la verdad”.
Las herramientas de detección de IA tampoco están a la altura del problema. Según Isis Blachez, analista de NewsGuard: “Los usuarios pueden no cuestionar visuales que se presentan como ‘evidencia’ apoyando afirmaciones pro-Irán cuando se ven tan reales. Las herramientas de detección de IA no son consistentemente exitosas reconociendo contenido generado.”
¿Qué tiene que ver esto con el contexto de IA militar?
La guerra Irán-Israel-EE.UU. es también el primer conflicto donde la IA se usa abiertamente en ambos lados del espectro informacional: EE.UU. usa IA para identificar más de 3.000 objetivos militares en Irán, mientras actores pro-régimen la usan para fabricar narrativas. La misma tecnología. Objetivos opuestos.
Por qué importa
Estamos viendo en tiempo real el primer conflicto armado donde la IA generativa funciona como infraestructura de desinformación a escala industrial. No es un experimento académico ni una proyección futura: imágenes de IA del conflicto con Irán se viralizaron más que las fotos reales, funcionarios de gobierno compartieron videos falsos desde cuentas verificadas, y la plataforma más influyente del mundo en noticias en tiempo real tiene un chatbot que responde a dudas de verificación generando sus propias imágenes. La pregunta ya no es si esto va a afectar la opinión pública sobre conflictos —ya está pasando. La pregunta es cuánto tardamos en construir infraestructura de verificación que pueda operar a la misma velocidad que la desinformación.

