La jefa de robótica de OpenAI renuncia por el acuerdo con el Pentágono: “Esto merecía más deliberación”

Share

La jefa de robótica de OpenAI renunció hoy, sábado 7 de marzo de 2026, en rechazo al acuerdo que la empresa firmó con el Departamento de Defensa de Estados Unidos. Caitlin Kalinowski, que llevaba apenas 16 meses construyendo el programa de robótica de OpenAI desde cero, cruzó una línea de principio y se fue. No en silencio.

Su salida se produce en el momento más tenso que ha vivido OpenAI en materia de ética: mientras ChatGPT acumula desinstalaciones y Claude sube al número uno del App Store, la empresa defiende un acuerdo militar que divide a la industria.

¿Quién es Caitlin Kalinowski y por qué importa su renuncia?

Kalinowski no es una ejecutiva cualquiera. Antes de unirse a OpenAI en noviembre de 2024, lideró el desarrollo de las gafas de realidad aumentada Orion en Meta — el proyecto de hardware más ambicioso de Zuckerberg. Su fichaje fue considerado un golpe estratégico para OpenAI en su apuesta por la IA física y la robótica.

Que alguien con ese perfil — de principio, no de personas, según sus propias palabras — abandone la empresa en pleno crecimiento del área que creó, dice algo sobre la profundidad del problema.

En un post en LinkedIn, Kalinowski fue directa:

“Esto no fue una decisión fácil. La IA tiene un rol importante en la seguridad nacional. Pero la vigilancia de ciudadanos estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron.”

En un mensaje de seguimiento en X, aclaró: “Mi problema es que el anuncio fue apresurado sin definir las salvaguardas. Es una preocupación de gobernanza antes que nada. Estos temas son demasiado importantes para que los acuerdos o anuncios sean precipitados.”

El acuerdo con el Pentágono: qué dice OpenAI y qué no dice

El trato entre OpenAI y el Departamento de Defensa se anunció a finales de febrero de 2026, pocas semanas después de que las negociaciones con Anthropic fracasaran. OpenAI lo presentó como un enfoque “más expansivo y multicapa” con salvaguardas técnicas, no solo contractuales. Sus líneas rojas explícitas:

  • Sin vigilancia doméstica de ciudadanos estadounidenses.
  • Sin armas autónomas letales sin supervisión humana.

El portavoz de OpenAI confirmó la salida de Kalinowski y reiteró la postura de la empresa: “Creemos que nuestro acuerdo con el Pentágono crea un camino viable para usos responsables de la IA en seguridad nacional, dejando claras nuestras líneas rojas. Reconocemos que la gente tiene opiniones fuertes sobre estos temas y seguiremos en diálogo con empleados, el gobierno y la sociedad civil.”

El problema, según Kalinowski, no es que esas líneas rojas no existan — es que no estaban definidas cuando se firmó el acuerdo. La velocidad venció a la deliberación.

El contexto: Anthropic rechazó el mismo trato y pagó las consecuencias

Para entender este episodio hay que retroceder unas semanas. El Pentágono intentó primero cerrar un acuerdo similar con Anthropic, que exigió salvaguardas más estrictas contra la vigilancia masiva doméstica y las armas completamente autónomas. El gobierno respondió designando a Anthropic como “riesgo en la cadena de suministro”, bloqueándola efectivamente de trabajar con contratistas del DoD.

Trump fue un paso más allá en Truth Social, calificando a Anthropic de “radical woke” e instando a las agencias federales a dejar de usar sus productos. Anthropic anunció que impugnará la designación en los tribunales. Mientras tanto, Microsoft, Google y Amazon confirmaron que seguirán ofreciendo Claude a clientes no vinculados a la defensa.

OpenAI tomó el espacio que dejó Anthropic — y ahora enfrenta las consecuencias internas de esa decisión. Puedes leer más sobre el historial de Anthropic con el Pentágono en por qué Anthropic rechazó el contrato militar y cómo el Pentágono catalogó a Anthropic como riesgo de cadena de suministro.

ChatGPT pierde usuarios: 295% más desinstalaciones tras el acuerdo militar

El mercado ya está hablando. Según datos recogidos por TechCrunch, las desinstalaciones de ChatGPT aumentaron un 295% tras el anuncio del acuerdo con el Pentágono. Al mismo tiempo, Claude de Anthropic subió al número uno del App Store de EE.UU., donde ambas apps compiten actualmente por los primeros puestos como las apps gratuitas más descargadas.

No es un dato menor: los usuarios que en semanas anteriores habían visto cómo Anthropic arriesgó su negocio por sus principios ahora están expresando su preferencia con sus dólares — o con sus desinstalaciones.

Por qué importa

La renuncia de Kalinowski no es solo un evento de RRHH. Es una señal sobre cómo se toman decisiones en las empresas de IA más poderosas del mundo cuando la presión comercial se cruza con la ética.

Su argumento central no fue que OpenAI no debiera trabajar con el gobierno. Fue que una decisión de esta magnitud se tomó demasiado rápido, sin los guardrails correctamente definidos. En un sector donde los modelos de IA pueden habilitar vigilancia masiva o sistematizar decisiones letales, la gobernanza no es un lujo: es la diferencia entre tecnología responsable y tecnología peligrosa.

El patrón que emerge es preocupante: la empresa que rechaza el trato (Anthropic) queda etiquetada como riesgo de suministro y atacada políticamente. La empresa que acepta el trato (OpenAI) pierde a una de sus líderes de hardware más respetadas y sufre una crisis de imagen pública. No hay salida limpia cuando los contratos militares de miles de millones de dólares están en juego — y eso hace más urgente, no menos, tomarse el tiempo de definir las salvaguardas antes de firmar.

Para el ecosistema tech en América Latina, este episodio es también una lectura obligatoria: si los gobiernos de la región empiezan a contratar IA para defensa, inteligencia o control de ciudadanos, las mismas preguntas van a aparecer. Mejor tenerlas estudiadas antes de que lleguen.


Fuentes

Leer más

Otras noticias