Jensen Huang dice que logramos la AGI: qué significa y qué no

Share

En el episodio #494 del podcast de Lex Fridman, Jensen Huang dijo algo que —predeciblemente— generó reacción inmediata en todo internet: “Creo que hemos logrado la AGI.” Pero antes de celebrar o entrar en pánico, conviene leer la letra pequeña: Huang está usando una definición muy específica de AGI, y su propia respuesta al final del mismo segmento contradice el entusiasmo inicial.

Lo que Huang en realidad hizo fue responder a la pregunta de Fridman sobre cuándo cree que llegará la AGI —si en cinco, diez o veinte años— con un “yo creo que ya llegó”. El contexto importa: la definición de Fridman es que una IA puede hacer “tu trabajo”, en el sentido de arrancar, hacer crecer y operar una empresa tech exitosa valuada en más de $1.000M. Con ese marco, Huang dice que sí, estamos ahí. Pero él mismo matiza pocos minutos después: “La probabilidad de que 100.000 agentes construyan Nvidia es cero por ciento.”

¿Qué significa AGI, exactamente?

El problema con la declaración de Huang no es que sea falsa. Es que la AGI no tiene una definición técnica unificada. Cada CEO, investigador y empresa tiene la suya propia, y no por casualidad: las definiciones que adoptan suelen ser convenientes para sus narrativas comerciales o sus plazos internos.

IA para el Resto de Nosotros

La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.

→ Inscríbete hoy 🚀

Para OpenAI, la AGI es un sistema capaz de superar a la mayoría de los humanos en tareas económicamente valiosas. Para DeepMind, es más matizada y implica capacidades generales de resolución de problemas. Para Fridman —y según él Huang— es básicamente poder reemplazar a un trabajador de conocimiento en su totalidad. Estas definiciones no son equivalentes, y mezclarlas genera confusión deliberada o accidental.

Lo que sí ha cambiado en los últimos años es que los sistemas actuales —Claude, GPT-5.4, Gemini, los modelos de Nvidia como parte de su ecosistema— han cruzado umbrales que hace tres años parecían lejanos: pueden razonar sobre problemas complejos, escribir y depurar código, hacer investigación, planificar en múltiples pasos. Eso es real. Pero “hacer cosas impresionantes” y “haber logrado la AGI” son categorías distintas.

La afirmación de Huang sobre AGI no solo redefine los límites conceptuales del campo, sino que también activa una discusión que la industria lleva años postergando: ¿quién verifica que una IA ha alcanzado un umbral tan significativo? ¿Y cuáles son las consecuencias de declararlo públicamente cuando el término arrastra implicaciones contractuales, regulatorias y sociales enormes?

El contexto que Huang no nombra: los contratos lo hacen importante

El término AGI no es solo filosófico. En el contrato entre OpenAI y Microsoft, la definición de cuándo se alcanza la AGI determina si Microsoft pierde o conserva ciertos derechos de uso. OpenAI tiene en su carta fundacional una cláusula de auto-sacrificio ligada a la AGI: si se logra, la misión de la organización teóricamente se ha cumplido. Esas cláusulas tienen consecuencias reales de millones —o miles de millones— de dólares.

Cuando el CEO de la empresa más valiosa del mundo dice casualmente en un podcast que “ya lo logramos”, no está solo haciendo una observación filosófica. Está moviendo el campo semántico en el que esos contratos operan. Y lo hace sin ofrecer métricas, sin nombrar benchmarks, sin señalar qué sistema específico habría cruzado qué umbral bajo qué evaluación.

Eso no significa que Huang esté actuando de mala fe. Puede que genuinamente crea que la combinación de agentes de IA actuales, autonomía creciente y capacidades emergentes ya representa algo cualitativamente distinto. Pero la afirmación requiere más que una respuesta espontánea en un podcast para tomarse en serio como enunciado técnico.

OpenClaw y la evidencia que Huang cita

Curiosamente, el ejemplo concreto que Huang menciona para apoyar su argumento es OpenClaw, la plataforma de agentes de IA open source que se ha vuelto viral. “La gente usa agentes individuales para todo tipo de cosas”, dice. Pero su propio follow-up desmonta la tesis: muchos usuarios lo usan un par de meses y lo abandonan. Y “las probabilidades de que 100.000 de esos agentes construyan Nvidia son cero por ciento”.

Eso es precisamente el problema central con la definición de AGI que está usando: una IA que puede ayudarte con tareas complejas durante semanas no es lo mismo que una IA con agencia general, motivación sostenida, capacidad de adaptación radical a contextos completamente nuevos, y la posibilidad de construir algo que dure décadas. En Davos, el mismo Huang describió la IA como un “pastel de cinco capas” donde apenas estamos en las primeras — una metáfora que sugiere que todavía hay mucho camino por recorrer.

Por qué importa la imprecisión

Hay dos riesgos reales en declaraciones como la de Huang.

El primero es regulatorio. Si los líderes de la industria empiezan a declarar que la AGI ya existe sin definirla con rigor, los marcos regulatorios —que apenas están tomando forma en Europa, Chile, y cada vez más países— pueden quedar desactualizados antes de implementarse, o peor, pueden ser capturados por definiciones convenientes para la industria.

El segundo es de alineación pública. La narrativa de “ya llegamos” tiene el efecto de normalizar una situación que en realidad sigue siendo experimental. Los agentes actuales alucinan, se equivocan en razonamiento básico bajo ciertas condiciones, no tienen continuidad de memoria real, y no entienden el mundo físico más allá de lo que han visto en texto. Decir que eso es AGI implica que la barra para alcanzarla era menor de lo que se creía —o que la definición fue elegida estratégicamente.

La ironía es que Huang no necesita la declaración para hacer su caso. Nvidia es la empresa más valiosa del mundo. Sus chips alimentan literalmente toda la revolución de la IA. Sus productos tienen demanda récord. El ecosistema que Jensen Huang ha construido alrededor de la IA puede ser el elemento más transformador de la economía tecnológica de la década — sin necesidad de declarar que cruzamos un umbral que nadie ha definido con rigor.

Que “lo logramos” o no depende de a quién le preguntes. Lo que sí es claro es que Huang sabe exactamente qué efecto tiene esa frase —y que la emitió de todas formas.


Fuentes

Leer más

Otras noticias