La IA que decide por los animales: el movimiento que nadie ve venir

Share

En febrero, investigadores de IA y activistas por el bienestar animal se reunieron en una coworking de San Francisco para debatir una pregunta que la mayoría del sector ignora: cuando llegue la inteligencia artificial general, ¿habrá alguien que le haya enseñado a valorar a los animales?

El evento fue el Sentient Futures Summit, organizado por Constance Li, fundadora de Sentient Futures, una organización que parte de una premisa incómoda: si la IA va a tomar la mayoría de las decisiones que hoy toman los humanos, lo que esa IA valora importa tanto como lo que hacen los reguladores, los Estados o las empresas.

¿Por qué el bienestar animal necesita hablar con los laboratorios de IA?

La lógica no es difícil de seguir. Durante décadas, el movimiento por el bienestar animal ha dependido de la persuasión humana: campañas, leyes, boicots, cambios culturales. Todo eso presupone que son humanos quienes toman las decisiones: qué comprar, cómo legislar, cómo producir alimentos. Si los modelos de IA se convierten en los asistentes omnipresentes que asesoran a gobiernos, empresas y consumidores —o si eventualmente toman decisiones de forma autónoma—, entonces los valores con que fueron entrenados determinan el resultado de muchas batallas que hoy se ganan con activismo.

IA para el Resto de Nosotros

La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.

→ Inscríbete hoy 🚀

“La IA va a ser muy transformadora, y va a voltear el tablero de juego”, dijo Li durante el evento. “Si crees que la IA tomará la mayoría de las decisiones, entonces importa cómo valora a los animales y otros seres sintientes”.

El movimiento está vinculado al altruismo efectivo, la corriente filosófica que busca maximizar el bien causado en el mundo mediante análisis cuantitativos. Para sus seguidores, la escala importa: si un sistema de IA toma millones de decisiones por día que afectan el bienestar de cerdos, pollos, peces o ratas, incluso un pequeño sesgo hacia la indiferencia tiene consecuencias masivas. Al revés, enseñarle a un modelo a considerar el sufrimiento animal podría tener más impacto que años de campañas.

Benchmarks para entrenar modelos con valores sobre animales

Una de las ponentes más concretas fue Jasmine Brazilek, cofundadora de Compassion in Machine Learning, una nonprofit que trabaja desde La Paz, México. Brazilek llegó con un benchmark construido para medir cómo razonan los modelos de lenguaje sobre el bienestar animal: AnimalHarmBench, una evaluación multi-dimensional del razonamiento moral de los LLMs respecto a los animales.

La estrategia es directa: si los modelos se entrenan con datos que reflejan consideración por el sufrimiento animal, sus respuestas futuras incorporarán ese marco. Brazilek instó a los investigadores presentes a generar documentos sintéticos que reflejen ese tipo de valores y usarlos como datos de entrenamiento.

No es solo teoría. La Constitución de Claude de Anthropic, publicada a comienzos de 2026, incluye explícitamente el bienestar de “los animales y de todos los seres sintientes” como parte del marco de valores del modelo. Para el movimiento en torno a Sentient Futures, eso es evidencia de que la palanca existe — y de que vale la pena presionar en esa dirección antes de que los modelos más influyentes estén completamente definidos.

El problema: ¿y si los modelos también son sintientes?

El evento no se limitó a discutir a los animales como objeto de preocupación moral. En la “Crustacean Room” —nombre elegido con cierta ironía para la sala de debates— una docena de personas debatió si la sintencia de los insectos puede decirnos algo sobre la vida interior de los chatbots.

Es una pregunta que no es trivial. DeepMind ha comenzado a construir frameworks cognitivos para medir el progreso hacia la AGI, y en ese debate late una pregunta que nadie quiere responder todavía: si creamos sistemas que procesen información de forma lo suficientemente compleja, ¿en qué punto importa lo que experimentan?

Para el movimiento, esto no es ciencia ficción sino planificación estratégica. Si en algún momento los modelos son considerados sintientes —o si esa posibilidad se vuelve suficientemente plausible— el argumento para incluirlos en los marcos morales que hoy se aplican a los animales se vuelve mucho más urgente.

Por qué importa

La pregunta de fondo no es si los activistas por el bienestar animal son simpáticos o si sus preocupaciones son razonables. La pregunta es de alineación: ¿qué valores incrustan los laboratorios de IA en sus modelos, y bajo qué presión?

Por ahora, la influencia proviene sobre todo de dinero y lobby regulatorio. Los grandes financiadores del altruismo efectivo —como Dustin Moskovitz y Cari Tuna, cofundadores de Facebook— también son los principales mecenas del movimiento por el bienestar animal. Y muchos de sus empleados trabajan en empresas de IA. El evento de Sentient Futures fue en parte una oportunidad para organizar ese flujo de donaciones hacia causas de bienestar animal en 2026 y más allá.

Pero hay algo más interesante que el dinero: el movimiento está apostando por la influencia técnica directa. No solo piden que las empresas de IA adopten políticas favorables a los animales — están construyendo benchmarks, produciendo datos sintéticos y argumentando que el entrenamiento de modelos es el nuevo campo de batalla para las causas morales. Si tienen razón sobre la dirección que tomará la IA, es una apuesta que vale la pena seguir.

Meta ya usa SAM 3 para proteger especies en peligro, una muestra de que la IA puede alinearse con la conservación de formas muy concretas. El debate en San Francisco apunta a algo más ambicioso: no aplicaciones puntuales, sino que los valores que guían a los modelos de mayor influencia incluyan a los animales desde el principio.


Fuentes

Leer más

Otras noticias