La carta que OpenAI olvidó: por su propio fundacional, debería rendirse en la carrera AGI

Share

En 2018, OpenAI firmó un pacto ante el mundo que nadie cumple: si otra organización se acerca a construir AGI de forma más responsable, OpenAI prometió dejar de competir y empezar a ayudarla. En 2026, con Sam Altman afirmando que “básicamente ya construimos AGI”, ese compromiso merece una revisión urgente.

El análisis que circuló esta semana en Hacker News lo pone en blanco y negro: la Carta Fundacional de OpenAI, publicada en abril de 2018 y aún vigente en openai.com/charter, contiene una cláusula que nadie quiere recordar.

La cláusula del auto-sacrificio

La Carta dice textualmente:

“Si un proyecto con valores alineados y consciencia de seguridad se acerca a construir AGI antes que nosotros, nos comprometemos a dejar de competir con él y a comenzar a asistirlo. Una condición de activación típica podría ser: una probabilidad superior al 50% de éxito en los próximos dos años.”

La condición de activación es clave: si alguien tiene más del 50% de probabilidades de lograr la AGI en los próximos dos años, OpenAI debería frenar y colaborar. Eso es exactamente lo que Sam Altman ha estado diciendo sobre su propia compañía.

Las predicciones de Altman: un mapa del caos

El historial de predicciones de AGI de Altman es un ejercicio en aceleración constante:

  • Mayo 2023: “Dentro de diez años, la IA superará el nivel de experto en la mayoría de dominios” (~2033)
  • Noviembre 2024: “En 5 años, la gente dirá ‘el momento AGI pasó y ya fue'” (~2029)
  • Diciembre 2025: “AGI más o menos pasó zumbando… ok, está bien, construimos AGIs”
  • Febrero 2026: “Básicamente construimos AGI” (luego aclaró que era “una declaración espiritual, no literal”)

Si tomas en serio que la mediana de predicciones desde 2025 apunta a un plazo de menos de 2 años, la condición de activación de la carta ya se habría cumplido. Y si OpenAI “básicamente construyó AGI”, el argumento es aún más directo.

¿Quién está ganando la carrera?

La competencia no es solo entre OpenAI y el mundo. El ecosistema actual incluye actores con credenciales de seguridad tan o más robustas que la propia OpenAI:

  • Anthropic: fundada por ex investigadores de OpenAI con foco explícito en seguridad. Claude Opus 4.5 iguala o supera a modelos de OpenAI en múltiples benchmarks. En febrero 2026 fue el número uno en descargas de la App Store. Incluso rechazó contratos militares que OpenAI aceptó.
  • Google DeepMind: décadas de investigación fundamental, infraestructura de cómputo sin par, y un historial de breakthrough científico (AlphaFold, AlphaStar) que ninguna empresa puede igualar.
  • Meta AI: apuesta por modelos abiertos que democratizan el acceso y la capacidad de construcción comunitaria.
  • Laboratorios emergentes: Lila Sciences y FutureHouse apuntan específicamente a descubrimientos científicos autónomos.

En benchmarks recientes, métricas clave pasaron de un rendimiento del 10–15% hace año y medio a un 84% en la actualidad, un ritmo que ha sorprendido incluso a los investigadores más optimistas.

La brecha entre promesas y acciones

El problema no es solo filosófico. Mientras la carta prometía auto-sacrificio en nombre de la seguridad, OpenAI ha hecho lo opuesto en la práctica:

  • La compañía avanza hacia una conversión a entidad con fines de lucro, generando demandas legales (incluida la de Elon Musk) y la intervención de fiscales generales de California y Delaware.
  • Firmó acuerdos con el Departamento de Defensa de EE.UU., lo que llevó a su directora de robótica, Caitlin Kalinowski, a renunciar por razones éticas.
  • Sam Altman describió en su ensayo “The Gentle Singularity” que 2026 verá sistemas capaces de generar “insights genuinamente novedosos”, proyectando que la IA añadirá conocimiento nuevo al mundo, no solo sintetizará el existente.

Por qué importa

Esta no es una discusión académica sobre filosofía de IA. Es una pregunta concreta: ¿las promesas fundacionales de las organizaciones que construyen tecnología transformadora tienen algún peso real?

La Carta de OpenAI está pensada para el escenario en que la carrera por AGI se vuelva tan competitiva que los atajos de seguridad empiecen a parecer tentadores. Ese escenario es exactamente el presente de 2026. Anthropic publica su política de uso responsable, Google DeepMind tiene décadas de trabajo en ética de IA, y OpenAI tiene una carta que prometió seguir.

No hay señales de que OpenAI vaya a activar la cláusula de auto-sacrificio. Pero el hecho de que esa cláusula exista, y de que las condiciones para activarla parezcan haberse cumplido, es la pregunta incómoda de la semana en el ecosistema de IA. La carta sigue en openai.com/charter. El reloj también.


Fuentes

Leer más

Otras noticias