Akamai lanza AI Grid con NVIDIA: inferencia distribuida en 4.400 nodos

Share

Akamai acaba de convertirse en la primera empresa del mundo en implementar a escala global el diseño de referencia NVIDIA AI Grid. Con más de 4.400 ubicaciones distribuidas por todo el planeta y miles de GPUs RTX PRO 6000 Blackwell Server Edition desplegándose en paralelo, el anuncio no es solo un lanzamiento de producto: es la primera señal concreta de que la inferencia de IA distribuida dejó de ser arquitectura teórica y empezó a ser infraestructura real.

Para las startups de IA en LATAM, esto cambia algunas cosas importantes.

¿Qué es el AI Grid y por qué es diferente a un cloud normal?

El problema que resuelve el AI Grid es estructural: los grandes modelos de lenguaje y los sistemas de IA generativa se entrenan y corren en datacenters centralizados. Eso significa latencia. Para aplicaciones que necesitan respuesta en tiempo real —agentes autónomos, experiencias hiperPersonalizadas, IA en físico— el viaje de ida y vuelta a un datacenter en Virginia o Dublín introduce fricciones que son inaceptables.

Claude Desbloqueado

Mi curso avanzado para aprender a sacarle mucho más provecho a Claude en el trabajo y en el día a día, con funciones y usos más potentes. Comienza el 23 de marzo.

→ Inscríbete hoy 🚀

El AI Grid propone otra arquitectura: un coordinador inteligente que enruta las cargas de trabajo al nodo óptimo en tiempo real, usando principios similares a los que convirtieron la entrega de contenido web en algo instantáneo. En lugar de que cada request viaje al origen, la inferencia ocurre en el punto más cercano al usuario que tenga la capacidad adecuada.

Adam Karon, COO de Akamai, lo resume así: “Los AI factories fueron construidos para entrenamiento y cargas de modelo frontier —y la infraestructura centralizada seguirá siendo óptima para esos casos. Pero el video en tiempo real, la IA física y las experiencias hiperPersonalizadas demand inferencia en el punto de contacto, no un viaje de ida y vuelta.”

Lo que esto significa en la práctica

La nueva arquitectura tiene tres capas. En el extremo más distribuido, los 4.400+ nodos edge procesan solicitudes que requieren respuesta en milisegundos: NPCs con IA en videojuegos, detección de fraude entre login y primera pantalla, transcripción y doblaje de contenido en tiempo real. En el núcleo, clústeres de miles de GPUs manejan los workloads más pesados que requieren compute concentrado.

El coordinador inteligente —ahí está la diferencia real— aplica “tokenomics” de forma automática: decide en tiempo real si una solicitud debe procesarse en edge o en core, usando técnicas como semantic caching y routing inteligente. El objetivo es bajar el costo por token y el tiempo hasta el primer token sin que el desarrollador tenga que preocuparse por la arquitectura subyacente.

Por qué importa para LATAM

LATAM tiene un problema estructural con la IA en producción: la infraestructura de compute de primer nivel está concentrada en EE.UU., Europa y Asia. Una startup en São Paulo o Bogotá que necesite inferencia de baja latencia tiene que elegir entre latencia alta o costos que no escalan. El edge distribuido de Akamai incluye presencia en la región —aunque los números específicos de nodos LATAM no están detallados en el anuncio.

Más relevante para startups LATAM: el modelo de acceso distribuido reduce la dependencia de un solo proveedor cloud. La guerra de tokens baratos que libran los modelos chinos está comprimiendo los márgenes de los proveedores occidentales, y la diversificación de infraestructura da más opciones a quienes construyen sobre APIs de terceros.

La analogía con CDNs que usa el propio Akamai es útil: antes de las CDNs, un sitio web con muchos usuarios en diferentes países era lento para la mayoría. Después, el contenido estaba en todas partes. El AI Grid apuesta a que la inferencia va a recorrer el mismo camino.

Si eso ocurre, la próxima generación de aplicaciones de IA que requieren tiempo de respuesta real —agentes autónomos, IA física, experiencias conversacionales sin lag— dejará de ser una ventaja de las empresas con acceso a infraestructura premium. Eso tiene implicaciones directas para quién puede construir qué desde LATAM.


Fuentes

Leer más

Otras noticias