La IA es un club de chicos y eso va a ampliar la brecha económica

Share

Rana el Kaliouby lleva años en el negocio de detectar emociones humanas con IA. Quizás por eso ve lo que muchos prefieren no mencionar: el sector que más está moldeando el futuro está excluyendo sistemáticamente a la mitad de la población que lo va a habitar.

En SXSW 2026, el Kaliouby —fundadora de Affectiva (vendida en 2021 por $73,5 millones a Smart Eye) y hoy general partner en Blue Tulip Ventures— fue directa frente al micrófono: la IA es un “club de chicos”, y eso no es solo un problema de justicia social. Es un problema económico concreto que va a afectar el patrimonio de millones de mujeres en los próximos años si no se interviene ahora.

¿Qué tan concentrado está el poder en la IA?

La evidencia es difícil de ignorar si uno la busca. La gran mayoría de los fundadores de startups de IA que reciben financiación son hombres. Las firmas de VC que dominan el sector tienen portafolios con presencia femenina marginal. Los modelos de lenguaje más influyentes fueron construidos en organizaciones donde los equipos de liderazgo siguen siendo mayoritariamente masculinos.

IA para el Resto de Nosotros

La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.

→ Inscríbete hoy 🚀

El entrevistador en SXSW le mostró a el Kaliouby una serie de titulares de TechCrunch con startups de IA lideradas por hombres para demostrar el punto. El Kaliouby respondió sin dudar: “Creo que la IA hoy es un club de chicos. Y creo que la diversidad no es un tema muy popular en estos días, pero es tremendamente importante porque la IA está creando oportunidades económicas extraordinarias”.

El contexto político importa aquí: la administración Trump ha desmantelado activamente programas DEI a nivel federal y corporativo. Ese desmantelamiento se derramó rápidamente hacia las grandes empresas tech, muchas de las cuales eliminaron o redujeron sus equipos de diversidad e inclusión. En ese clima, mencionar el problema en público requiere algún grado de convicción.

La brecha económica que nadie quiere cuantificar

El argumento de el Kaliouby tiene tres capas. La primera es la más obvia: si las mujeres no están fundando estas empresas, no acceden a la upside del capital que genera la IA. La segunda capa es más sistémica: si no están recibiendo inversión, no están construyendo en este sector. Y la tercera capa —la que cierra el argumento de forma incómoda— es que tampoco están invirtiendo en los fondos que invierten en estas compañías.

“Si las mujeres quedan fuera —porque no están fundando estas empresas, porque no están recibiendo financiación, porque no están invirtiendo en los fondos que invierten en estas compañías— vamos a mirar hacia atrás en cinco o diez años y habremos ampliado la brecha económica enormemente”, dijo el Kaliouby. “Eso es algo que me preocupa profundamente”.

Es un análisis que conecta directamente con lo que Anthropic documentó en su investigación sobre el impacto de la IA en el mercado laboral: las ocupaciones con mayor riesgo de automatización son las que históricamente han empleado a más mujeres —trabajo administrativo, atención al cliente, procesamiento de datos. La concentración del poder de construcción en un grupo, combinada con la automatización de los trabajos donde otro grupo está sobrerrepresentado, no es una combinación accidental. Es la configuración que amplifica la desigualdad existente.

Diversidad como variable de calidad del producto, no de PR

El segundo argumento de el Kaliouby —y el que más peso tiene desde una perspectiva técnica— es que la falta de diversidad no solo afecta quién se beneficia de la IA. Afecta qué tan buena es la IA.

Los sistemas de IA aprenden de quién los diseña, los entrena y define sus objetivos. La historia reciente tiene suficientes ejemplos de lo que pasa cuando eso no se gestiona: sistemas de reconocimiento facial con tasas de error significativamente más altas en mujeres y personas de color; asistentes de voz calibrados históricamente para voces masculinas; algoritmos de reclutamiento que reproducen sesgos de los datos históricos de contratación. Ninguno de esos problemas son fallas técnicas aleatorias. Son la consecuencia predecible de construir tecnología sin diversidad de perspectivas en la sala donde se toman las decisiones.

El Kaliouby fue específica en SXSW: “Si no intervenimos, si no defendemos lo que nos importa —como la ética y la diversidad de pensamiento y perspectiva, y priorizar la idea de centrar la tecnología en los humanos— el resultado puede no ser bueno”.

Esto lo dice alguien que fundó una empresa cuyo producto central era enseñarle a las máquinas a leer emociones humanas. El proyecto tenía problemas de sesgo documentados —los modelos de Affectiva funcionaban mejor en expresiones faciales de culturas occidentales que en las de otras regiones. El Kaliouby conoce el problema desde adentro.

Lo que el Kaliouby está haciendo de forma concreta

El Kaliouby no llegó a SXSW a lamentarse. En Blue Tulip Ventures, tres de cada cuatro inversiones son en startups con mujeres en el rol de CEO. Lo aclara: no es una cuota. Es búsqueda activa de talento que el mercado está sistemáticamente subfinanciando. “Realmente intento buscar a estas fundadoras mujeres y apoyarlas, aunque sea sin un cheque, de otras formas, porque no están recibiendo la oportunidad que merecen y necesitan”.

Es una postura que tiene lógica económica clara para quien la sigue: si el talento femenino está subvaluado sistemáticamente, hay alpha en invertir ahí. Pero el Kaliouby no lo plantea solo como oportunidad financiera —lo plantea como responsabilidad de quienes tienen acceso a capital y plataforma en este momento específico de la industria.

El ejemplo de España es relevante como punto de referencia: España lidera Europa en mujeres fundadoras tech, pero sigue siendo excepción regional, no norma. La tendencia existe —el problema es que no está escalando al mismo ritmo que la industria.

Por qué importa este momento específico

El Kaliouby tiene razón en algo que no siempre se nombra con claridad: la ventana para influir en quién construye la IA se está cerrando más rápido de lo que parece. Las empresas que están capturando valor en este ciclo —OpenAI, Anthropic, xAI, los grandes jugadores de modelos— tienen ya sus equipos, su cultura y sus incentivos establecidos. Los ecosistemas se solidifican.

Para el mercado latinoamericano y las comunidades tech fuera de Silicon Valley, eso tiene implicaciones prácticas: o hay un esfuerzo consciente de incluir más perspectivas diversas en el desarrollo de estas tecnologías ahora, o en cinco años el debate va a ser sobre cómo redistribuir los beneficios de sistemas que ya están fijos. La segunda conversación es mucho más difícil que la primera.

La IA tiene un problema de perspectiva estructural. Y ese problema no se resuelve solo —requiere que más voces, más experiencias y más tipos de problemas entren a la conversación desde el principio. El Kaliouby lo está diciendo en el momento políticamente más incómodo para decirlo. Eso tiene algún valor por sí mismo.


Fuentes

Leer más

Otras noticias