La Constitución de Claude: Anthropic publica el documento que da forma al carácter de su IA

Share

Anthropic acaba de publicar la nueva Constitución de Claude —y no es un documento de marketing. Es el texto que define qué valores, prioridades y comportamientos guían al modelo durante el entrenamiento. Está disponible bajo licencia CC0 (dominio público), lo que significa que cualquiera puede usarla libremente. Y es probablemente el documento más honesto que una empresa de IA ha publicado sobre cómo forma el carácter de sus sistemas.

La publicación es del 22 de enero de 2026 y representa un cambio significativo respecto al enfoque anterior. La vieja constitución era una lista de principios independientes. La nueva es algo más ambicioso: un documento holístico que explica el contexto en que opera Claude, los motivos detrás de cada regla y el tipo de entidad que Anthropic quiere que sea.

¿Qué es exactamente la Constitución de Claude?

La Constitución es el documento fundacional que da forma al carácter de Claude. Funciona en dos niveles: primero, como declaración pública de valores —transparencia sobre lo que Anthropic quiere que su modelo sea; segundo, como herramienta de entrenamiento activa —Claude la usa para generar datos sintéticos de entrenamiento, construir conversaciones de ejemplo y aprender a generalizar sus principios a situaciones nuevas.

La parte inusual es que está escrita principalmente para Claude. No para los usuarios, no para los reguladores —para el modelo. La idea es que si Claude entiende el razonamiento detrás de cada expectativa, puede aplicar buen juicio en situaciones que ninguna regla explícita contempla.

Según Anthropic, quieren que todos los modelos actuales de Claude sean:

  • Broadly safe (ampliamente seguros): no socavar los mecanismos humanos de supervisión de la IA durante esta etapa crítica de desarrollo.
  • Broadly ethical: tener buenas valores personales, ser honestos, y evitar acciones innecesariamente peligrosas o dañinas.
  • Adherent to Anthropic’s principles: actuar de acuerdo con las directrices de la empresa cuando son relevantes.
  • Genuinely helpful: beneficiar a los operadores y usuarios con quienes interactúa.

El cambio de enfoque: de reglas a razonamiento

El giro conceptual más importante es la transición de una lista de reglas a un documento que explica el porqué. La antigua constitución decía qué hacer. La nueva intenta que Claude entienda tan bien el contexto que pueda decidir bien por sí mismo —incluso en situaciones que nadie anticipó.

Anthropic es directa al admitir que las reglas específicas tienen limitaciones: “Las reglas específicas pueden aplicarse mal en situaciones no anticipadas o cuando se siguen demasiado rígidamente.” La alternativa es dotar al modelo de principios amplios que pueda generalizar.

Sin embargo, mantienen lo que llaman “hard constraints” —restricciones absolutas para comportamientos de alto riesgo donde Claude simplemente no debe actuar, independientemente del contexto. Estas son las líneas rojas que no se negocian con razonamiento situacional.

¿Por qué publicarla bajo CC0?

La decisión de publicar bajo Creative Commons CC0 (sin restricciones, ni siquiera atribución requerida) es deliberada. Anthropic quiere que otros laboratorios, investigadores y desarrolladores puedan usar el documento, adaptarlo y construir sobre él. También es una apuesta de transparencia: si tu constitución es pública, cualquiera puede señalar contradicciones entre lo que dices y lo que hace tu modelo.

Hay un segundo motivo práctico: la constitución es ahora central en el proceso de entrenamiento de Claude. Los modelos la usan para generar datos sintéticos —conversaciones de ejemplo, rankings de respuestas, situaciones donde la constitución sería relevante. Publicarla permite que la comunidad entienda mejor por qué Claude responde como responde.

Por qué importa

Estamos en un momento donde la mayoría de los laboratorios de IA hablan mucho de “valores” y “seguridad” pero comparten poco de cómo esos conceptos se traducen en comportamiento real del modelo. La Constitución de Claude es un paso concreto en dirección contraria.

Para los usuarios, es un mapa: puedes leer el documento y entender qué comportamientos son intencionales versus cuáles son fallas del entrenamiento. Para los desarrolladores que construyen sobre Claude, es una guía de qué esperar y dónde están los límites no negociables. Para el ecosistema de IA en general, es un precedente —si esto funciona, otros laboratorios podrían verse presionados a hacer lo mismo.

La constitución también reconoce algo que pocas empresas admiten abiertamente: crear entidades con capacidades que rivalizan con las humanas es un proyecto sin precedentes históricos, y el documento es “sin duda imperfecto en muchas formas.” Esa honestidad es, en sí misma, notable.


Fuentes

Para entender mejor el ecosistema de gobernanza de Anthropic, te recomiendo también la Política de Escalado Responsable v3.0 —que define los niveles de seguridad ASL para sus modelos— y el artículo sobre la carta fundacional de OpenAI y la cláusula AGI, que muestra cómo distintas empresas enmarcan sus compromisos de largo plazo. Para contexto de cómo Claude se posiciona en el mercado actual, el artículo sobre Claude Sonnet 4.6 es el punto de partida ideal.

Leer más

Otras noticias