Mientras los militares de EE.UU. usaban IA para identificar miles de objetivos en Irán, algo paralelo estaba pasando en internet: decenas de dashboards de inteligencia construidos con herramientas de IA proliferaron en días, prometiendo a cualquier persona con conexión acceso casi en tiempo real al conflicto. Algunos fueron construidos por analistas experimentados. Muchos fueron “vibe-codeados” en un par de días por personas sin formación en inteligencia. Y el efecto combinado distorsionó tanto como clarificó.
La historia la documenta MIT Technology Review esta semana con un análisis incómodo: la IA está transformando la observación de conflictos armados en algo parecido al entretenimiento, con todos los problemas que eso implica.
La sala de guerra en tu pantalla: qué son estos dashboards
Uno de los dashboards más virales durante el conflicto de Irán fue construido por dos personas de Andreessen Horowitz. Combina imágenes satelitales de fuentes abiertas, rastreo de barcos, feeds de noticias con un chat integrado, y links a mercados de predicción donde la gente podía apostar —literalmente— sobre quién sería el próximo líder supremo de Irán.
Craig Silverman, experto en investigaciones digitales, lleva semanas recopilando este tipo de plataformas. Hasta ahora tiene registradas más de 20. Muchas usan resúmenes generados por IA de noticias complejas y cambiantes. Casi todas se anuncian como la alternativa a los medios lentos e ineficaces, prometiendo “la verdad directa de lo que pasa en el terreno”. En LinkedIn, alguien escribió: “Aprendí más en 30 segundos viendo este mapa que leyendo o viendo cualquier cadena de noticias importante”.
Esa frase captura exactamente el problema.
La ilusión de estar informado
Silverman lo dice claro: “El riesgo es que hay una ilusión de estar al tanto y en control, cuando en realidad solo estás absorbiendo una tonelada de señales sin necesariamente entender qué estás viendo, ni siendo capaz de extraer información real de ello”.
Los feeds de estos dashboards agregan información de múltiples fuentes sin curaduría. Las imágenes satelitales que ves pueden ser reales pero estar fuera de contexto. Los resúmenes de IA pueden introducir imprecisiones en eventos que cambian cada hora. Y el hecho de que todo aparezca empaquetado en una interfaz profesional, con gráficos y mapas geoespaciales, genera una sensación de autoridad que puede no corresponder a la realidad.
Un ejemplo documentado: visualizaciones del espacio aéreo de Irán cerrándose antes de los ataques circularon masivamente antes de que se confirmaran. El dato era técnicamente correcto —el cierre de espacio aéreo es verificable via ADS-B— pero la interpretación que hacía la audiencia (“confirmación del ataque inminente”) no era necesariamente lo que la señal indicaba.
Por qué ahora: confluencia de factores
Según MIT Tech Review, cuatro factores se combinaron para crear esta nueva dinámica:
- Herramientas de vibe coding: ya no necesitas habilidades técnicas para ensamblar inteligencia de fuentes abiertas. Un par de días con Cursor o Claude Code y tienes un dashboard publicado.
- Modelos de chat rápidos pero falibles: los chatbots pueden ofrecer análisis inmediato de cualquier dato, aunque ese análisis sea de dudosa calidad.
- Desconfianza en medios tradicionales: la audiencia busca el tipo de análisis “en bruto” que normalmente solo tienen las agencias de inteligencia.
- Mercados de predicción: plataformas como Kalshi y Polymarket crean incentivos financieros para estar informado antes que los demás, alimentando la demanda de estos dashboards en tiempo real.
Y hay un quinto factor menos obvio: el hecho de que el ejército de EE.UU. esté usando modelos como Claude para planificación militar (a pesar de la designación de Anthropic como riesgo de cadena de suministro) funciona como una señal implícita de que la IA es la herramienta que usan los profesionales de inteligencia. Si el Pentágono usa Claude, ¿por qué no puedo usar yo mi dashboard de ADS-B con GPT-4o?
El problema de calidad que no se puede ignorar
Más allá de la información incorrecta, hay otro riesgo: convertir una guerra en entretenimiento gamificado. Apostar sobre quién será el próximo líder supremo de Irán mientras se observan las explosiones en tiempo real convierte el sufrimiento humano en un juego de información con premios en efectivo.
El artículo de MIT Tech Review es claro en que estas herramientas tienen valor real: la capacidad de ver datos de AIS (rastreo de barcos), rutas de vuelo y apagones eléctricos ensamblados en un solo lugar tiene utilidad legítima para periodistas, investigadores y analistas. Herramientas como el ShadowBroker dashboard de OSINT demuestran que la inteligencia de fuentes abiertas puede democratizarse de forma responsable.
El problema está en el packaging: cuando esa misma información se presenta con el aspecto de una sala de operaciones, con un chat de IA que responde preguntas al instante y links a mercados de apuestas, la audiencia pierde la capacidad de calibrar la incertidumbre que tiene cada señal individual.
Por qué importa
Esta no es una historia sobre si la IA ayuda o daña en conflictos armados. Es una historia sobre un efecto secundario que nadie diseñó deliberadamente: la proliferación de herramientas de IA de bajo costo está democratizando la producción de dashboards de inteligencia sin democratizar el juicio que se necesita para interpretarlos correctamente.
En el mundo pre-IA, hacer algo que pareciera una sala de operaciones de inteligencia requería recursos, tiempo y conocimiento especializado. Hoy requiere un fin de semana y acceso a GPT-4. Eso no es malo per se —muchas cosas útiles salen de esa combinación— pero crea una nueva clase de contenido que se siente como fuente primaria sin serlo.
La próxima vez que veas viral un dashboard de conflicto, la pregunta correcta no es “¿tiene datos en tiempo real?” sino “¿quién interpretó esos datos y con qué criterio?”. Por ahora, la respuesta suele ser: nadie, con ninguno.

