Más de 200 empleados de Google DeepMind piden “líneas rojas” para la IA militar

Share

Más de 200 empleados de Google DeepMind firmaron una carta interna dirigida a Jeff Dean, Chief Scientist de Google, pidiendo que la empresa establezca líneas rojas claras para el uso militar de la IA.

¿Qué piden?

La carta se opone específicamente a:

  • Vigilancia masiva de ciudadanos usando sistemas de IA
  • Armas autónomas sin supervisión humana
  • Cualquier uso de Gemini (el modelo de IA de Google) para aplicaciones militares clasificadas

El contexto

La carta llega en un momento crítico: Anthropic está negociando con el Pentágono para usar Claude en sistemas de inteligencia clasificados. Google tiene contratos militares activos a través de Google Cloud. Y el gobierno de EE.UU. está acelerando la adopción de IA en defensa.

No es la primera vez que empleados de Google se oponen a contratos militares — en 2018, el proyecto Maven (drones con IA) generó una revuelta interna que llevó a Google a cancelar el contrato. Pero esta vez las apuestas son más altas y la tecnología, mucho más poderosa.

El dilema ético de la IA

La tensión es real: las mismas empresas que desarrollan IA para productividad, salud y educación están siendo cortejadas por gobiernos que quieren IA para defensa y vigilancia. ¿Dónde se traza la línea?

Fuentes: New York Times · The Week

Read more

Local News