Un documental presentado en el festival de Sundance 2026 está generando conversación incómoda en el ecosistema tech: Ghost in the Machine, de la directora Valerie Veatch, traza una línea directa entre la IA generativa actual y las raíces eugenistas de Silicon Valley. No como metáfora, sino como historia documentada.
Para quienes construyen con IA en LATAM, el argumento central no debería descartarse como activismo académico: toca algo muy concreto sobre cómo funcionan los modelos que usamos todos los días.
¿Qué dice el documental?
Veatch conecta tres puntos que el mundo tech prefiere mantener separados. Primero: figuras fundacionales de Silicon Valley, como William Shockley —coinventor del transistor y premio Nobel— tenían posiciones eugenistas documentadas y públicas. Segundo: los datasets con los que se entrenaron los grandes modelos de lenguaje e imagen provienen de internet, que a su vez refleja décadas de sesgos raciales, de género y culturales. Tercero: la IA generativa no “crea” en ningún sentido original; modela estadísticamente lo que ya existe. Si lo que existe está sesgado, el modelo reproduce ese sesgo.
Aprende IA con nosotros
Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.
👥 Únete gratis 🚀La directora llegó al tema después de experimentar con un generador de video de “una de las grandes compañías de IA” y encontrar outputs racialmente grotescos. Su conclusión: no son errores. Son el reflejo fiel de los datos.
El sesgo no es un bug: es herencia
El punto que más debate ha generado es la distinción entre “IA estrecha” (sistemas con métricas claras: predicción del clima, corrección ortográfica) y la IA generativa. La primera puede evaluarse con precisión. La segunda hace algo diferente: interpola entre patrones culturales históricos sin conciencia de lo que está haciendo.
Cuando le pides a un modelo que genere una imagen de “un CEO exitoso” o “un científico”, está pesando probabilidades que vienen de millones de imágenes etiquetadas por humanos con sus propios sesgos. El resultado estadísticamente “correcto” reproduce la distribución histórica, no la distribución que quisiéramos.
El argumento de democratización —que la IA va a nivelar el campo de juego— queda cuestionado si la infraestructura que la sostiene fue construida con una visión del mundo específica y muy poco diversa.
¿Por qué importa para founders en LATAM?
Hay algo que el documental no dice explícitamente pero que es relevante para el ecosistema latinoamericano: los datos de texto, imagen y voz en español, portugués y las lenguas indígenas de la región son una fracción mínima de los datasets de entrenamiento de los modelos más usados. Eso tiene consecuencias prácticas.
Un modelo entrenado principalmente con contenido en inglés anglonorteamericano va a tener peor comprensión de contextos culturales locales, expresiones regionales, humor, referencias políticas, y dinámicas de mercado específicas de LATAM. No porque el modelo sea “malo”, sino porque esos contextos simplemente no estaban en sus datos de entrenamiento con la misma densidad.
Esto es, paradójicamente, una oportunidad. Las startups que realmente entienden su mercado local tienen un punto de diferenciación frente a productos IA que aplican modelos globales sin ajuste. El fine-tuning con datos locales, las interfaces culturalmente relevantes, los flujos adaptados al contexto LATAM: todo eso tiene más valor cuando el modelo base tiene menos cobertura de tu mercado.
Como señala el argumento del documental, el sesgo no desaparece ignorándolo. Sí se puede mitigar eligiendo bien los modelos, validando outputs con diversidad real, e invirtiendo en datos de calidad del contexto local. Lo que la brecha de género y diversidad en IA hace es que quienes tienen más que perder con estos sesgos tienen también menos voz en cómo se construyen los sistemas.
Por qué importa
El documental tiene críticas legítimas: a veces mezcla argumentos muy distintos (el eugenismo de Shockley y los sesgos de Stable Diffusion son problemas relacionados pero no idénticos). Algunos críticos señalan que podría haber sido más preciso en las conexiones causales versus las correlaciones históricas. Pero la pregunta que abre es válida: ¿es posible construir sistemas IA verdaderamente neutrales cuando sus arquitectos vienen de contextos tan homogéneos y sus datos reflejan desigualdades históricas?
Para quienes llevan tiempo siguiendo el debate ético de la IA, esto no es nuevo. Lo que añade Ghost in the Machine es la conexión histórica concreta —nombres, archivos, declaraciones— que hace difícil mantener la narrativa de que los sesgos son simplemente errores técnicos corregibles con más datos. Son elecciones que se remontan a quiénes fundaron el campo, con qué visión del mundo, y qué voces quedaron fuera desde el principio.
El documental está disponible en Sundance Now y tendrá distribución a través de Focus Features durante 2026.
Fuentes
- Equipo Ecosistema Startup — IA generativa: ética, sesgos y el reto para founders tech
- Engadget — Ghost in the Machine draws a damning line between AI and eugenics
- International Documentary Association — The Synthesis: Valerie Veatch Connects AI and Eugenics
- Sundance — Ghost in the Machine: An Urgent Technological Horror Story
- Filmmaker Magazine — Entrevista con Valerie Veatch

