El gobierno de Trump acaba de redactar las reglas que toda empresa de IA deberá aceptar para venderle al gobierno estadounidense: una licencia irrevocable para “todo uso legítimo”. Son las mismas tres palabras que le costaron a Anthropic su contrato con el Pentágono — y que OpenAI aceptó sin chistar.
Estas reglas, elaboradas por la Administración de Servicios Generales (GSA), todavía están en borrador y el gobierno buscará comentarios de la industria antes de hacerlas obligatorias. Pero el texto ya circula, y el mensaje es claro: si quieres hacer negocios con Washington, juegas con sus reglas.
¿Qué dice exactamente el borrador de la GSA?
Según el borrador visto por el Financial Times, las reglas incluyen tres exigencias principales:
- Licencia irrevocable para “todo uso legítimo”: Las empresas de IA deberán ceder al gobierno de EE.UU. el derecho de usar sus modelos para cualquier propósito legal. Sin límites específicos, sin excepciones por tipo de aplicación.
- Prohibición de sesgos ideológicos en las respuestas: Los modelos deben ser “herramientas neutras y no partidistas que no manipulen respuestas en favor de dogmas ideológicos como la diversidad, equidad e inclusión”. La ironía — que esta prohibición sea en sí misma una imposición ideológica — no se le escapa a nadie.
- Divulgación de ajustes para regulaciones extranjeras: Si una empresa modificó o configuró su modelo para cumplir con normativas no-estadounidenses — como la Ley de Servicios Digitales de la UE (DSA) — debe declararlo. Una cláusula que pone en tensión directa el cumplimiento de regulaciones europeas.
Todo se entiende mejor si recuerdas lo que pasó hace una semana
Estas reglas no surgen en el vacío. Son la consecuencia directa del choque público entre el Pentágono y Anthropic, que derivó en que el Departamento de Defensa etiquetara a la empresa como “riesgo de cadena de suministro” y cancelara un contrato de $200 millones.
El detonante fue exactamente esta frase: Anthropic rechazó ceder una licencia para “todo uso legítimo” porque eso incluiría aplicaciones de vigilancia masiva de ciudadanos estadounidenses y armas autónomas. OpenAI, en cambio, aceptó los términos y obtuvo el contrato que Anthropic perdió.
En nuestra cobertura del caso Anthropic vs. el Pentágono, ya explicamos cómo esas tres palabras — “all lawful use” — concentraban todo el conflicto. Ahora la GSA las está institucionalizando como estándar para todos los contratos civiles del gobierno, no solo los militares.
¿Qué empresa puede cumplir con esto?
Para OpenAI, que ya firmó términos similares con el Pentágono, adaptarse a estas reglas para contratos civiles sería relativamente directo. Para Anthropic, que lleva las restricciones de uso como parte central de su propuesta de seguridad, la situación es mucho más complicada.
El CEO de Anthropic, Dario Amodei, anunció que la compañía impugnará judicialmente la etiqueta de “riesgo de cadena de suministro”. Pero incluso si gana esa batalla legal, el borrador de la GSA sugiere que las reglas del juego para el mercado gubernamental van a cambiar de todas formas.
Para empresas más pequeñas o startups europeas que quieran acceder al mercado federal de EE.UU., estas reglas también plantean un dilema: cumplir con el DSA europeo y declararlo (y potencialmente perder contratos) o adaptar versiones separadas de sus modelos para el mercado americano.
La cláusula anti-DEI: un requisito que es en sí mismo ideológico
La exigencia de “neutralidad ideológica” con mención explícita a la diversidad, equidad e inclusión proviene directamente de las órdenes ejecutivas de Trump contra los programas DEI en el gobierno federal. Lo paradójico es que prohibir que un modelo “favorezca la equidad” es también una postura ideológica — solo que en la dirección contraria.
Para las empresas de IA, esto significa que tendrán que ajustar su RLHF (ajuste fino con retroalimentación humana) para el mercado gubernamental americano de una forma distinta a como lo harían para el mercado europeo o corporativo. Modelos diferentes para contextos diferentes — o un modelo que aplana todas las diferencias para complacer a Washington.
Por qué importa
El mercado de IA para el gobierno federal de EE.UU. es enorme, y estas reglas van a moldear quién puede acceder a él. Lo que empieza como estándar para contratos civiles de la GSA probablemente migre también a contratos militares — el Departamento de Defensa ya está considerando cláusulas similares.
El precedente que se está fijando aquí es el siguiente: el Estado puede imponer condiciones ideológicas a las herramientas tecnológicas que usa, y las empresas deben elegir entre aceptarlas o quedarse fuera del mayor mercado gubernamental del mundo. Esa decisión va a definir la estrategia de muchas compañías de IA en los próximos años — y de paso, va a revelar hasta dónde llegan sus compromisos reales con la seguridad y los principios que proclaman.
Si estás siguiendo el debate sobre IA y contratación pública, revisa también cómo Claude llegó al #1 del App Store justo después de rechazar al Pentágono y el Claude Marketplace enterprise que Anthropic lanzó como alternativa.

