China pasó del entusiasmo a la contención con OpenClaw en cuestión de semanas. Después de que el agente se volviera viral entre usuarios, empresas y comunidades técnicas del país, funcionarios, bancos estatales y organismos públicos empezaron a recibir advertencias para no instalarlo en equipos de oficina ni en teléfonos conectados a redes corporativas.
La jugada dice mucho sobre el momento actual de los agentes de IA. Cuando una herramienta puede ver la pantalla, operar aplicaciones sin API y ejecutar flujos completos como si fuera una persona, el atractivo productivo es enorme. Pero también lo es el susto regulatorio, sobre todo en un sistema obsesionado con el control como el chino.
¿Por qué OpenClaw se volvió tan popular en China?
La explicación no es solo curiosidad tecnológica. Según Xataka y reportes citados por Bloomberg y Reuters, OpenClaw explotó en China porque ataca un dolor real: la fragmentación del software empresarial. Muchas compañías operan con decenas o incluso cientos de sistemas internos que no tienen APIs bien documentadas o que simplemente no se comunican entre sí.
Ahí es donde un agente visual como OpenClaw brilla. En vez de esperar integraciones perfectas, puede mirar botones, rellenar campos y navegar interfaces directamente. Para equipos saturados de trabajo manual, eso suena menos a experimento futurista y más a parche inmediato para un problema cotidiano.
Ese boom ya había dejado pistas muy claras. En descubre.ai contamos hace poco cómo OpenClaw desató en China una fiebre de 7.000 instalaciones y hasta servicios pagados para montarlo. Antes incluso vimos escenas todavía más llamativas: 1.000 personas haciendo fila para instalarlo. El salto desde esa fascinación popular hasta la restricción estatal era menos improbable de lo que parecía.
Qué están restringiendo exactamente las autoridades
Reuters reportó que agencias gubernamentales y empresas estatales advirtieron a sus empleados que no instalaran aplicaciones basadas en OpenClaw en dispositivos de trabajo por motivos de seguridad. Bloomberg fue en la misma línea y añadió que la presión alcanzó también a grandes bancos nacionales. La lógica es bastante transparente: una herramienta con acceso visual y operativo a la máquina puede tocar datos sensibles, abrir documentos privados y seguir instrucciones extraídas de contenido no confiable.
Ese riesgo no es teórico. Los agentes son especialmente vulnerables a instrucciones escondidas en pantallas, documentos o salidas de herramientas externas. Por eso el debate sobre prompt injection en entornos empresariales dejó de ser una obsesión de laboratorio y pasó a ser un problema operativo.
En el caso chino, además, hay una capa política imposible de ignorar. Pekín tolera y hasta incentiva la innovación cuando puede encauzarla, pero se pone mucho más rígido cuando una tecnología empieza a moverse fuera de carriles previsibles. Un agente abierto, instalable y difícil de supervisar choca frontalmente con esa lógica.
Por qué un agente abierto pone nervioso a bancos y gobiernos
OpenClaw no es un chatbot encerrado en una ventanita. Es un sistema capaz de interactuar con software real. Eso crea, al menos, tres miedos concretos:
- Acceso a información sensible: si ve la pantalla, puede topar con datos financieros, expedientes internos o credenciales.
- Acciones no triviales: no solo responde; también hace clic, navega y completa procesos.
- Exposición a instrucciones maliciosas: cualquier contenido externo puede intentar manipular su comportamiento.
Xataka también apuntó que el auge de OpenClaw se mezcló con otro fenómeno: el consumo brutal de tokens por parte de usuarios avanzados y empresas que querían automatizar tareas enteras. Eso disparó negocio para proveedores locales y reforzó el entusiasmo comercial. Pero justamente ese uso intensivo vuelve más difícil auditar qué está haciendo cada agente, con qué permisos y sobre qué datos.
La contradicción es interesante. China quiere liderazgo en IA, y el país ha mostrado una capacidad impresionante para convertir cualquier novedad útil en despliegue masivo. Pero también necesita mantener bajo control las herramientas que pueden atravesar sistemas, mover información y tomar acciones en infraestructuras críticas. OpenClaw queda exactamente en ese cruce incómodo.
Por qué importa
Esta historia importa porque adelanta el debate que otros países todavía no están enfrentando del todo. Los agentes de IA prometen productividad real precisamente porque pueden interactuar con sistemas viejos, caóticos y mal integrados. Pero esa misma virtud es la que los vuelve difíciles de gobernar en sectores sensibles.
China probablemente sea el primer gran laboratorio de esa tensión: adopción brutal por necesidad operativa, seguida de restricciones rápidas por seguridad y control político. No será el último. Bancos, aseguradoras, hospitales y gobiernos de otros mercados van a llegar pronto al mismo dilema: quieren agentes capaces de hacer trabajo real, pero no saben todavía cómo auditar, limitar y contener ese poder.
Si algo deja claro este episodio es que la era de los agentes ya no depende solo de qué tan buenos sean los modelos. También depende de quién se atreve a soltarlos en máquinas reales y de qué reglas pone cuando eso empieza a volverse demasiado popular.

