La Junta de Supervisión de Meta —el organismo semi-independiente que guía las políticas de moderación de la compañía— acaba de publicar un veredicto incómodo: el sistema actual de Meta para detectar y etiquetar deepfakes “no es suficientemente robusto ni comprensivo” para el entorno digital de hoy. La recomendación es clara: hay que rehacerlo de raíz.
El momento del anuncio no es casual. El tablero se activa mientras las escaladas militares en Oriente Medio generan una avalancha de contenido falso en redes sociales, incluyendo en las plataformas de Meta.
¿Qué encontró la Junta de Supervisión?
Todo parte de una investigación concreta: un video falso generado con IA que mostraba supuestos daños a edificios en Israel fue compartido masivamente en Facebook, Instagram y Threads el año pasado. La investigación reveló que el contenido no se originó en Meta, sino que empezó en TikTok y migró a las plataformas de Meta sin ser detectado ni etiquetado correctamente.
El diagnóstico de la Junta es estructural:
- Dependencia excesiva de la autodeclaración: el sistema actual confía demasiado en que los propios usuarios reconozcan que su contenido fue generado con IA.
- Proliferación multiplataforma sin control: el contenido sintético viaja entre plataformas y Meta no tiene mecanismos para rastrearlo.
- C2PA implementado de forma inconsistente: los Content Credentials, el estándar técnico que debería “marcar” el contenido generado por IA, ni siquiera se aplica correctamente al contenido producido por las propias herramientas de IA de Meta.
Qué le pide la Junta a Meta
Las recomendaciones son específicas y exigen cambios reales, no parches cosméticos:
- Mejorar las reglas de desinformación para incluir deepfakes explícitamente como categoría separada.
- Crear un nuevo estándar comunitario específico para contenido generado por IA.
- Desarrollar mejores herramientas de detección de IA, independientes de la autodeclaración del creador.
- Aplicar etiquetas “High-Risk AI” con mayor frecuencia en imágenes y videos sintéticos de alto riesgo.
- Escalar la adopción de C2PA, el estándar técnico de Content Credentials, para que la información sobre origen IA sea “claramente visible y accesible” para usuarios.
- Transparencia en las sanciones por violaciones a las políticas de IA.
¿Qué es C2PA y por qué importa tanto?
C2PA (Coalition for Content Provenance and Authenticity) es un estándar técnico impulsado por Microsoft, Adobe, Intel, Sony y otros que permite incrustar metadatos criptográficos en archivos de imagen y video, indicando si fueron generados o modificados por IA. Funciona como una “cadena de custodia” para el contenido visual.
El problema es que esto solo funciona si todas las partes de la cadena lo implementan. Si Meta genera un video con sus herramientas de IA y no aplica C2PA, o si lo hace de forma inconsistente, el sistema falla. La Junta dice que eso es exactamente lo que está pasando hoy.
Meta no está obligada a seguir las recomendaciones
La Junta de Supervisión es semi-independiente: puede emitir recomendaciones vinculantes en casos específicos que revisa directamente, pero sus recomendaciones de política son voluntarias para Meta. La empresa puede elegir implementarlas, modificarlas o ignorarlas.
Lo que sí existe es presión pública y regulatoria creciente. El año pasado, Meta ya enfrentó una demanda por sus gafas inteligentes con IA tras revelarse que trabajadores en Kenia revisaban imágenes íntimas de usuarios. Y cuando la Junta habla de “riesgos para la seguridad de las personas” en zonas de conflicto activo, el peso político de la recomendación aumenta.
Adam Mosseri, jefe de Instagram, también había reconocido públicamente el año pasado la necesidad de mejorar la identificación de contenido auténtico. La presión es desde adentro y desde afuera.
Por qué importa
El deepfake de edificios en Israel no es un caso aislado: es el piloto de lo que viene. Los conflictos armados son el ambiente perfecto para la desinformación visual porque generan urgencia, emociones fuertes y falta de contexto en tiempo real. Y la IA ha democratizado la producción de contenido sintético convincente al punto de que cualquiera puede generar un video falso en minutos.
Si las plataformas no resuelven esto, las consecuencias van más allá de la reputación corporativa. La desinformación visual en zonas de conflicto puede costarte vidas. El etiquetado inconsistente no es un bug técnico menor: es una grieta en la infraestructura de confianza digital que afecta a millones de personas.
Esto se conecta directamente con debates más amplios sobre cómo los LLMs y sistemas de IA están reconfigurando la opinión pública, y con las preguntas éticas que surgen cuando modelos como Grok de xAI generan respuestas ofensivas sobre tragedias sin suficiente control.
La regulación viene. La EU AI Act ya clasifica ciertos sistemas de generación de contenido sintético en categorías de alto riesgo. La pregunta no es si Meta tendrá que mejorar sus sistemas de detección, sino cuánto tardará en hacerlo antes de que lo fuercen desde afuera.

