El 1 de marzo de 2026, unas 500 personas recorrieron las calles del barrio tecnológico de King’s Cross en Londres, pasando frente a las oficinas de Google DeepMind y Meta, con carteles que pedían frenar el desarrollo de inteligencia artificial. Según sus organizadores, fue la mayor protesta anti-IA registrada en el mundo hasta la fecha.
Podría ser fácil descartarla. “500 personas no son nada”, podrías decir. Pero eso sería un error de lectura. Lo que pasó en Londres no es un episodio aislado de gente asustada por lo que no entiende. Es una señal de que el debate sobre el futuro de la IA está saliendo de los foros académicos y llegando a la calle. Y eso, quieras o no, importa.
Quién marchó y qué pedían
La marcha fue organizada por dos grupos: Pause AI y Pull the Plug. Su mensaje central no era “eliminen la IA” sino algo más matizado: exigen una pausa en el entrenamiento de modelos de frontera —los más grandes y potentes— hasta que existan mecanismos de supervisión democrática reales.
Entre los manifestantes no solo había artistas preocupados por sus empleos o ciudadanos de a pie. También había investigadores de IA. Eso cambia bastante la narrativa del “ludita tecnófobo”. Cuando alguien que trabaja en el campo dice “necesitamos frenar un poco”, vale la pena escuchar.
Sus demandas concretas incluyen:
- Una moratoria internacional en el entrenamiento de modelos de IA de frontera
- Regulación democrática y transparente del desarrollo de IA
- Que los gobiernos tomen el control del ritmo de desarrollo, no las empresas privadas
- Supervisión independiente de los laboratorios de IA más avanzados
La ruta de la marcha no fue accidental: pasar frente a DeepMind y Meta fue un mensaje directo a las empresas que hoy definen el ritmo del desarrollo. Es el mismo DeepMind que, como hemos cubierto aquí, firmó una carta contra el uso militar de la IA mientras la industria avanza en otra dirección. La contradicción entre los valores declarados y la práctica real es exactamente lo que molesta a estos protestantes.
El debate de fondo: ¿mover rápido o pensar primero?
Hay una tensión enorme en el corazón del desarrollo de IA actual. Por un lado, los laboratorios y los inversores argumentan que frenar el ritmo equivale a ceder terreno a competidores —especialmente China— y que la innovación traerá sus propias soluciones a los problemas que genera. Por otro, hay voces que dicen que estamos acelerando sin cinturón de seguridad.
No se trata solo de ciencia ficción apocalíptica. Los riesgos que señalan los manifestantes son concretos: concentración de poder en pocas empresas privadas, impacto laboral sin red de protección, sistemas de IA usados en decisiones críticas sin accountability real, y el riesgo de que los modelos más avanzados hagan cosas que no pedimos ni esperamos.
Y luego está la dimensión militar. Esta semana también se habló mucho de Anthropic, la empresa detrás de Claude, que rechazó públicamente el desarrollo de armas autónomas pese a trabajar con el gobierno de Estados Unidos. Ese tipo de tensiones —¿dónde está el límite?— son exactamente las que los manifestantes quieren convertir en política pública, no en decisiones corporativas unilaterales.
¿Están en lo correcto?
Esta es mi posición: no tienes que estar de acuerdo con cada demanda de Pause AI para reconocer que la pregunta que hacen es válida.
“¿Quién decide cómo y a qué velocidad se desarrolla esta tecnología?” es una pregunta legítima. Hoy la respuesta honesta es: un puñado de empresas privadas con sede en California y, cada vez más, en China. Los gobiernos van varios pasos atrás. La ciudadanía, varios más.
Una moratoria global en el entrenamiento de modelos es difícil de implementar —quizás imposible en la práctica geopolítica actual— pero la conversación que genera es necesaria. Que haya 500 personas marchando por las calles de Londres no va a parar a OpenAI ni a Google. Sin embargo, el MIT Technology Review cubrió la protesta en vivo. El South West Londoner le dio espacio en sus páginas. La conversación se está expandiendo.
¿Y América Latina? Aquí está el problema real
Mientras en Londres la gente marcha pidiendo más debate democrático sobre la IA, en América Latina ese debate casi no existe en el espacio público.
La IA se está adoptando a velocidad creciente en la región: en educación, en salud, en sistemas de contratación, en seguridad pública. Pero el debate ciudadano sobre cómo, para qué y con qué límites va muy por detrás. No tenemos nuestro equivalente a Pause AI. No tenemos marchas. Tenemos, en el mejor de los casos, algunas iniciativas académicas y regulaciones que llegan tarde.
Eso no es necesariamente mejor que la situación europea o estadounidense. Es peor. Porque la tecnología llega igual, pero sin el contrapeso de una sociedad civil que la cuestione.
Chile, Argentina, Brasil, México —todos están implementando herramientas de IA en sectores críticos. ¿Con qué supervisión? ¿Con qué participación ciudadana? ¿Con qué debate público real? La respuesta, en la mayoría de los casos, es escasa.
Lo que debería quedarte de esta noticia
No necesitas unirte a Pause AI ni creer que la IA es una amenaza existencial para reconocer que el modelo actual de desarrollo —privado, acelerado, con poca rendición de cuentas— tiene problemas serios.
Lo que pasó en King’s Cross el 1 de marzo es un recordatorio de que la tecnología no es neutral. Quien la desarrolla, bajo qué incentivos, con qué valores y a qué velocidad: todo eso importa. Y la ciudadanía tiene derecho a opinar sobre eso, no solo a consumir el resultado final.
El verdadero riesgo no es que 500 personas marchen contra la IA. El riesgo es que el debate que están tratando de abrir no llegue a tener suficiente peso como para cambiar algo. En Londres, al menos, ya comenzó.

