Fotos IA de la boda de Zendaya engañaron a sus propios conocidos

Share

Zendaya apareció en Jimmy Kimmel esta semana y tuvo que aclarar, con humor pero con cansancio, que las fotos de su boda con Tom Holland que circularon masivamente en redes eran generadas con inteligencia artificial. “Mucha gente se dejó engañar”, dijo. “Me decían: ‘Tus fotos de boda son hermosas’, y yo respondía: ‘Cariño, son IA. No son reales.'”

El incidente en sí es anecdótico. Lo que revela no lo es.

Por qué importa

El caso Zendaya es el ejemplo más reciente de un patrón que se acelera: imágenes generadas con IA que circulan como reales, que engañan a personas cercanas a las propias afectadas, y que requieren desmentidos públicos de los involucrados. No estamos hablando de deepfakes sofisticados de video —que tienen su propio nivel de amenaza—, sino de imágenes estáticas lo suficientemente convincentes como para pasar el filtro de reconocidos por quienes conocen a las personas representadas.

IA para el Resto de Nosotros

La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.

→ Inscríbete hoy 🚀

La diferencia con casos anteriores de deepfakes que destruyen reputaciones sin existir es que aquí no hubo daño personal grave —Zendaya pudo reírse del asunto—. Pero la mecánica subyacente es idéntica: imágenes falsas + plataformas de distribución masiva + ausencia de etiquetado efectivo = confusión a escala.

Las herramientas para generar estas imágenes son accesibles, baratas y mejoran mes a mes. Los mecanismos para detectarlas o etiquetarlas —como las iniciativas C2PA de provenance de contenidos digitales, o los sistemas de watermarking de OpenAI— todavía no operan a escala real en los feeds de Instagram, X o TikTok donde el contenido circula. El error clásico de “seis dedos” que delataba imágenes IA hace 18 meses ya no aplica: los modelos actuales no cometen ese tipo de errores visuales.

El resultado práctico: la verificación de imágenes se convierte en una habilidad activa que las personas deben ejercer, no una consecuencia pasiva de ver algo en pantalla. Y la mayoría de los usuarios —incluyendo el entorno cercano de figuras públicas— no tiene ni el tiempo ni las herramientas para hacerlo.

Las plataformas siguen sin resolver el problema. La pregunta ya no es si la IA puede generar imágenes convincentes de personas reales —puede y lo hace a escala—, sino quién asume la responsabilidad de que el receptor sepa que lo que está viendo es ficción.


Fuentes

Tabla de contenidos [hide]

Leer más

Otras noticias