Imágenes IA de Irán se colaron en grandes medios alemanes

Share

Una cosa es que las imágenes falsas hechas con IA circulen por X o Telegram. Otra bastante más grave es que terminen publicadas por medios grandes a través de agencias fotográficas. Eso es exactamente lo que acaba de pasar con cobertura sobre Irán en Alemania: Der Spiegel retiró varias imágenes tras concluir que eran probablemente generadas o manipuladas con IA.

La historia importa porque muestra un cambio feo en la cadena de confianza periodística. Ya no basta con desconfiar de lo que ves en redes sociales. Ahora el problema puede entrar por la puerta más “seria” de todas: bancos de imágenes y distribuidores que históricamente funcionaban como filtro.

¿Qué pasó exactamente con las imágenes de Irán?

The Decoder resumió el caso a partir de la investigación original de Der Spiegel. El medio alemán detectó varias imágenes sospechosas en su cobertura sobre Irán y decidió quitarlas mientras revisaba el origen. Todas venían de la misma cadena: la agencia SalamPix, que distribuía material vía la francesa Abaca Press.

La revisión forense, realizada con apoyo de la empresa alemana Neuramancer, concluyó que al menos tres piezas eran probablemente generadas por IA: una supuesta vista aérea de un portaaviones iraní, una imagen de Ali Khamenei junto a su hijo Mojtaba y una foto de un edificio diplomático en Níger. Otra imagen, de una explosión en Teherán, mostraba rastros del modelo Flux 2, lo que apunta a manipulación con IA. Solo una foto analizada, la de unas escolares iraníes en 2022, salió limpia.

Der Spiegel además reconoció algo clave: las imágenes no se quedaron en un solo medio. Circularon por bases usadas también por Zeit, Süddeutsche Zeitung, WDR, Stern, Deutschlandfunk, Deutsche Welle, Welt, taz y B.Z. Es decir, el problema no fue un editor distraído. Fue un fallo sistémico en la cadena de distribución.

El problema ya no es solo la red social: es la infraestructura

Esto cambia bastante la conversación. Hasta ahora, el relato habitual era que la IA generativa contamina redes abiertas donde cualquiera publica cualquier cosa. Pero aquí el vector fue otro: una agencia alimentó material a otra, esa agencia lo integró en sus bases, y medios establecidos lo reutilizaron con la confianza de siempre.

Ese matiz importa mucho. El periodismo profesional ha operado durante décadas con varias capas de verificación delegada: corresponsales, agencias, editores gráficos, metadatos, historial del proveedor. La IA no elimina esa lógica, pero la vuelve mucho más frágil. Si una pieza falsa entra temprano y con apariencia “plausible”, el resto de la cadena puede amplificarla antes de que alguien la cuestione.

No es casualidad que esto ocurra en medio de una guerra informativa donde la imagen vale casi tanto como el misil. Ya habíamos visto cómo la IA falsa desbordó X durante la guerra con Irán, con clips, fotos y montajes diseñados para fabricar sensación de superioridad militar o caos rival. Lo nuevo aquí es que el contagio saltó desde esa guerra de propaganda al circuito formal de noticias.

¿Cómo se coló el material?

Der Spiegel reporta que un fotógrafo iraní admitió ante Abaca Press haber subido al sistema imágenes procedentes de una plataforma ligada a la Guardia Revolucionaria iraní sin etiquetarlas como tales. Esa parte es crucial, porque no hablamos solo de “errores técnicos”. Hablamos de contenido que venía de un ecosistema propagandístico y que terminó mezclado con material periodístico legítimo.

Las respuestas posteriores muestran el tamaño del susto. Según Spiegel, dpa Picture Alliance ocultó el material de SalamPix en sus bases; Imago bloqueó al proveedor; y ddp emitió una kill notice para frenar el uso posterior de esas imágenes. En Países Bajos, ANP ya había retirado alrededor de 1.000 imágenes vinculadas a SalamPix, y RTL Nederland reconoció haber publicado algunas sin saber que estaban manipuladas.

Incluso si mañana se descubre que no todas las imágenes problemáticas eran 100% sintéticas, el daño ya está hecho. La audiencia no distingue entre “parcialmente alterada”, “generada con IA” o “editada desde una base real”. Lo que percibe es otra cosa: que lo visual dejó de ser confiable incluso cuando viene con sello profesional.

La verificación tradicional ya no basta

La IA generativa está rompiendo una intuición básica: que una foto periodística merece una presunción inicial de realidad. Esa presunción era imperfecta antes, claro, pero ahora se degrada mucho más rápido. Las redacciones necesitarán revisar procesos, exigir trazabilidad y combinar criterio humano con forensia digital casi en tiempo real.

Y eso ocurre en un contexto donde la moderación ya va tarde. Meta, por ejemplo, ha sido criticada por su manejo insuficiente del etiquetado y la gobernanza visual, como contamos en nuestra nota sobre deepfakes y el Oversight Board. El caso alemán añade otro frente: no solo fallan las plataformas, también puede fallar la infraestructura profesional que alimenta a los medios.

Hay además un problema de incentivos. En una cobertura de guerra, la presión por ilustrar rápido es brutal. Si una agencia te entrega una foto plausible, dramática y lista para usar, la tentación de confiar es alta. Por eso este caso probablemente no sea una excepción aislada, sino un anticipo.

Por qué importa

Importa porque la IA generativa está dejando de ser solo un problema de “desinformación en internet” para convertirse en un problema de producción editorial. Si una imagen falsa puede colarse en bancos profesionales y llegar a medios grandes, entonces la batalla ya no se libra únicamente en redes: se libra en los protocolos, contratos y rutinas del periodismo.

Para los lectores, la lección es incómoda: ver una imagen en un medio reconocido ya no basta para darla por buena. Para las redacciones, la lección es todavía más dura: confiar en la cadena de agencias como antes puede salir carísimo en credibilidad.

Y para cualquiera que siga la evolución de la IA, esto deja una señal nítida. La próxima gran discusión no será si las imágenes falsas existen. Esa etapa ya pasó. La discusión real será cómo evitamos que lo falso se mezcle con lo verdadero justo en los sistemas que supuestamente estaban diseñados para separarlos.


Fuentes

Leer más

Otras noticias