El gobierno de Trump está preparando nuevas reglas contractuales que obligarían a las empresas de IA a ceder al gobierno federal una licencia irrevocable para “todo uso lícito” de sus sistemas. Según un borrador visto por el Financial Times publicado el 7 de marzo de 2026, las mismas tres palabras que ya dividieron a OpenAI y Anthropic en su disputa con el Pentágono ahora se convertirían en cláusula estándar para todos los contratos civiles del gobierno con empresas de IA.
Las implicaciones son significativas: una licencia irrevocable para “todo uso lícito” significa que el gobierno podría redistribuir, modificar y usar esos sistemas IA sin restricciones adicionales — exactamente lo que Anthropic intentó limitar y por lo que perdió un contrato de $200 millones con el Pentágono la semana pasada.
Qué dicen exactamente las nuevas reglas
El borrador proviene de la Administración de Servicios Generales (GSA), la agencia federal que gestiona contratos de compras del gobierno. Las cláusulas propuestas incluyen tres requisitos principales:
- Licencia irrevocable para “todo uso lícito”: Las empresas deben ceder derechos de uso sin posibilidad de revocación ni restricciones operativas.
- Prohibición de “sesgo ideológico o partidista”: Los modelos no pueden mostrar preferencias por programas de diversidad ni tomar posiciones políticas — lo que en sí mismo es una exigencia ideológica.
- Divulgación de modificaciones para cumplir regulaciones extranjeras: Si una empresa ajustó su modelo para cumplir con la Ley de Servicios Digitales de la UE u otras normativas no estadounidenses, debe declararlo.
The Decoder señala que la cláusula de “sesgo ideológico” tiene un paralelo directo con los controles políticos que China impone a sus fabricantes de IA, exigiéndoles alinear sus modelos con “valores socialistas.” La ironía es evidente: la prohibición de tomar posiciones ideológicas es, en sí misma, una posición ideológica.
El contexto: Anthropic, el Pentágono y tres palabras
Estas reglas no emergen en el vacío. La semana anterior a la publicación del borrador, el Pentágono canceló un contrato de $200 millones con Anthropic después de que la empresa exigiera restricciones sobre vigilancia masiva de ciudadanos estadounidenses y uso de armas autónomas. El Secretario de Defensa Pete Hegseth acusó a Anthropic de querer “poder de veto sobre decisiones militares” y la Casa Blanca catalogó a la empresa como “riesgo en la cadena de suministro.”
OpenAI, en cambio, aceptó las condiciones de “todo uso lícito” en su propio acuerdo con el Pentágono, lo que le permitió mantener y ampliar esa relación. La diferencia entre ambas compañías se reduce exactamente a esas tres palabras.
Por qué importa
Si este borrador se convierte en política oficial, cualquier empresa de IA que quiera contratar con el gobierno federal estadounidense — no solo con el ejército, sino con cualquier agencia civil — tendría que aceptar condiciones que les quitan control sobre cómo se usa su tecnología.
Para las empresas con compromisos de seguridad en IA, como Anthropic, esto plantea un dilema directo: o aceptan condiciones que contradicen sus propias políticas de uso, o quedan excluidas del mercado federal. Un mercado que, en el caso de los contratos de IA, se mide en miles de millones de dólares.
Pero hay algo más inquietante en el trasfondo: un gobierno que dice querer IA sin “sesgo ideológico” mientras simultáneamente prohíbe que los modelos apoyen programas de diversidad — una decisión ideológica — está definiendo “neutralidad” según sus propias preferencias políticas. Es exactamente el mismo mecanismo que critica en China. La pregunta es si el sector privado va a nombrarlo.
Fuentes
- The Decoder — Trump administration drafts AI contract rules requiring companies to license systems for all lawful use
- The Decoder — The Pentagon-OpenAI-Anthropic fallout comes down to three words: all lawful use
- The Decoder — Anthropic officially deemed supply chain risk, CEO Amodei announces legal challenge

