Hay una economía paralela que hace funcionar la IA que usas cada día. No está en San Francisco ni en Londres. Está en Nairobi, en Bogotá, en Manila. Personas que trabajan jornadas de ocho horas revisando lo peor que el ser humano es capaz de producir y publicar en internet: mutilaciones, pornografía no consentida, agresiones en vivo. Lo hacen para que los modelos de lenguaje aprendan a distinguir lo apropiado de lo inapropiado. Y lo hacen, en muchos casos, por menos de tres dólares la hora.
La historia de Michael Geoffrey, trabajador keniata que pasó meses etiquetando contenido explícito para entrenar los modelos de grandes tecnológicas y que hoy lidera uno de los primeros sindicatos del sector, no es una excepción inspiracional. Es el retrato de un sistema diseñado para que la responsabilidad nunca quede donde el dinero se acumula.
La arquitectura de la invisibilidad
El mecanismo es elegante en su crueldad. OpenAI no contrató directamente a Geoffrey: lo hizo Sama, una empresa subcontratista con sede en Nairobi —parte del llamado Silicon Savannah— que opera como intermediaria para gigantes como Meta, TikTok y la propia OpenAI. Esta capa de subcontratación cumple una función doble: abarata el costo de las tareas repetitivas de anotación de datos y, de paso, crea distancia legal y moral entre la empresa que se beneficia del trabajo y quien lo realiza.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀Nairobi no es un caso aislado en este mapa. Según un informe de la OCDE publicado en 2025, miles de trabajadores en Kenia y Colombia operan bajo condiciones similares: contratos de corta duración, sin seguros médicos, sin apoyo psicológico para procesar la exposición crónica a material traumático. Una encuesta de Equidem ese mismo año documentó 60 incidentes independientes de daño psicológico entre 76 trabajadores de Ghana, Colombia y Kenia, que incluían ansiedad severa, TEPT, ataques de pánico y dependencia de sustancias.
Esta no es la primera vez que Kenia aparece en el centro de este debate. En 2026, trabajadores keniatas contratados por un subcontratista de Meta admitieron haber revisado contenido íntimo capturado por las gafas Ray-Ban AI —imágenes de desnudez y relaciones sexuales de usuarios sin su conocimiento—, en un caso que terminó en una demanda colectiva en Estados Unidos. Lo cubrimos en detalle aquí. El patrón se repite: la herramienta mejora, el trabajador absorbe el costo humano y el titular lo protagoniza brevemente antes de desaparecer.
Lo que los benchmarks no miden
La industria de la IA celebra cada nuevo modelo con números de rendimiento: puntuaciones en MMLU, velocidad de inferencia, eficiencia energética. Ningún benchmark mide cuántos episodios de TEPT generó entrenar ese modelo. No existe una métrica de “costo psicológico por token”.
Esta omisión no es accidental. La cadena de suministro de datos de la IA funciona de manera análoga a otras cadenas de suministro globales donde el precio de un producto de consumo nunca incluye el costo real de producirlo. La diferencia es que aquí el producto final —un modelo de lenguaje entrenado— se vende como una herramienta intelectual, cognitiva, casi mágica. La magia requiere que no veamos las tuberías.
Hay, además, una tendencia que lo agrava: las empresas chinas de IA, incluyendo algunas de las que han ganado visibilidad reciente por sus avances técnicos, también están contratando trabajadores keniatas para anotación de datos. Según un reportaje de Rest of World de diciembre de 2025, el Silicon Savannah está siendo reclamado simultáneamente por el ecosistema occidental y el chino, en ambos casos bajo condiciones laborales que las matrices en Pekín o Shenzhen no tolerarían en casa.
Del dolor individual a la respuesta colectiva
En mayo de 2023, más de 150 moderadores y etiquetadores de datos que trabajaban para subcontratistas de Facebook, ChatGPT y TikTok formaron el primer sindicato del sector en Nairobi. La respuesta de Sama fue despedir a 184 de ellos —precisamente los que habían intentado organizarse— por parte de las operaciones vinculadas a Meta. El Tribunal de Nairobi ordenó la suspensión de los despidos. Las negociaciones fracasaron en octubre de ese año. El caso sigue activo.
Sonia Kgomo, ex moderadora de Meta en Kenia y una de las voces de African Tech Workers Rising —respaldada por UNI Global Union—, llegó a la Cumbre de Acción en IA de París en febrero de 2025 con un mensaje directo: África no es solo el destino de la IA, es parte de su infraestructura invisible. En junio de 2025, el Global Trade Union Alliance for Content Moderators publicó ocho protocolos internacionales de seguridad para estos trabajadores —entre ellos, limitar la exposición diaria a contenido traumático y proveer apoyo psicológico gratuito por al menos dos años después de dejar el puesto— que ninguna gran tecnológica ha adoptado de forma vinculante.
Geoffrey, que pasó de ser víctima del sistema a liderarlo, encarna la única respuesta colectiva que ha demostrado algo de eficacia. Pero un sindicato sin respaldo regulatorio enfrenta una asimetría estructural: las empresas que subcontratan el trabajo pueden simplemente cambiar de subcontratista, mover las operaciones a otra ciudad, otro país, otra región con menos organización y más necesidad.
La pregunta que la industria prefiere no responder
¿Es posible construir IA responsable sin auditar la cadena de suministro de datos que la alimenta? La respuesta honesta es no. Un modelo entrenado con datos producidos bajo condiciones explotadoras no se vuelve ético por tener buenas respuestas sobre inclusión o diversidad. La ética no empieza en el deploy.
Para quienes construyen sobre IA —startups, empresas establecidas, equipos de producto—, esta pregunta tiene implicaciones prácticas crecientes. Los reguladores europeos ya están examinando el AI Act desde el ángulo de la cadena de suministro de datos. Las auditorías de impacto de derechos fundamentales, que el reglamento requiere para sistemas de alto riesgo, necesitarán eventualmente rastrear de dónde vienen los datos de entrenamiento y bajo qué condiciones se produjeron.
La discusión sobre IA y mercado laboral suele concentrarse en cuántos empleos va a eliminar la automatización. El debate sobre sobreproducción de perfiles calificados lo refleja bien. Pero hay una capa anterior y más urgente: los trabajos que la IA ya está destruyendo, no por automatización sino por externalización hacia el eslabón más desprotegido de la cadena.
Por qué importa ahora
El mercado global de anotación de datos creció a más de 3.000 millones de dólares en 2025 y se proyecta que alcance los 17.000 millones en 2030. Este crecimiento está impulsado directamente por la demanda de IA generativa. Sin datos etiquetados, los modelos no mejoran. Sin moderadores humanos, los filtros no funcionan. La dependencia es estructural, no transitoria.
Lo que pide el sindicato de Nairobi no es radical: contratos estables, cobertura médica, límites en la exposición a contenido traumático, apoyo psicológico. Son las condiciones laborales básicas que cualquier empresa occidental asume como mínimo para sus empleados directos. El problema es que la arquitectura de subcontratación existe precisamente para que esas condiciones no sean obligatorias.
Mientras eso no cambie, cada nuevo modelo que se lanza con una presentación impecable sobre seguridad, alineación y valores tiene un número no auditado de horas de trauma acumuladas en algún edificio de Nairobi que nadie filmó.
Fuentes
- Equipo Ecosistema Startup — Trabajadores de IA en Kenia: trauma, sindicatos y ética
- OECD.AI — Exploitation and Poor Working Conditions for AI Data Annotators in Kenya and Colombia
- TIME — Global Safety Rules Aim to Protect AI’s Most Traumatized Workers
- Rest of World — Chinese tech companies hire Kenyan workers for AI training
- Brookings Institution — Reimagining the future of data and AI labor in the Global South
- UNI Global Union — AI Action Summit: Africa Tech Workers

