El 10 de marzo de 2026, Eridu AI salió del modo sigilo con $200 millones en una Serie A sobreasignada. No es solo el monto lo que llama la atención —es lo que dice sobre el próximo cuello de botella de la IA: no los modelos, sino la red que los conecta.
La startup, con sede en Saratoga, California, recaudó la ronda liderada por Socratic Partners, el legendario inversor John Doerr, y Matter Venture Partners. En total, Eridu ha levantado $230 millones desde su fundación en 2024. El plan: rediseñar desde cero la arquitectura de red de los centros de datos de IA.
¿Quién es Drew Perkins y por qué los inversores abrieron la billetera?
El co-fundador y CEO de Eridu no es un cara nueva en Silicon Valley. Drew Perkins lleva décadas construyendo tecnología de redes desde el origen de internet. En los 80, ayudó a crear el Protocolo Punto a Punto (PPP), pieza clave del TCP/IP que sostiene la web. Después cofundó y escaló compañías que terminaron en exits masivos:
- Lightera Networks: adquirida por Ciena por más de $500 millones en 1999.
- Infinera (NASDAQ: INFN): salió a bolsa y fue adquirida por Nokia por $2.300 millones en 2025.
- Gainspeed: también adquirida por Nokia.
- Mojo Vision: referente en pantallas micro-LED y lentes de contacto con realidad aumentada.
Su co-fundador, Omar Hassen, proviene del diseño de chips de red en gigantes como Broadcom y Marvell. Un dúo con décadas de experiencia en el problema exacto que quieren resolver.
La chispa para Eridu llegó en febrero de 2023. Perkins compartió escenario con Sam Altman en una conferencia pequeña. Altman le explicó que lo que hizo posible a ChatGPT fue una cantidad masiva de cómputo —por entonces, 4.000 GPUs. Hoy hablamos de millones. Perkins captó algo que mucha gente pasó por alto: el problema no iba a ser solo conseguir más chips, sino lograr que esos chips se comuniquen entre sí de forma eficiente.
El problema real: la red no avanza al ritmo de las GPUs
Aquí está el meollo del asunto. Los chips de GPU y el ancho de banda de memoria mejoran aproximadamente 10 veces por año. Los switches de red de los data centers —los de Broadcom, Marvell, Cisco y compañía— solo mejoran 2 a 3 veces cada 2 o 3 años. Es una brecha que se agranda con cada generación de modelos.
El sistema actual funciona así: cuando necesitas más red, añades más cajas. Cada caja adicional significa más saltos que recorrer para cada bit de datos, más latencia, más consumo energético, y más puntos de fallo —especialmente en las conexiones ópticas, que son el eslabón más frágil.
Eridu propone algo distinto: un switch que integra más funciones directamente en el chip, eliminando capas de hardware óptico intermedio. El resultado prometido: menos consumo de energía, menos costos, y mayor confiabilidad. A largo plazo, Eridu quiere vender sistemas completos que reemplacen a los proveedores tradicionales de equipos de red —como Arista Networks— en los centros de datos de IA.
¿A quiénes se enfrenta Eridu en este mercado?
El espacio de hardware para IA no está vacío. Hay jugadores bien posicionados:
- Groq: especializada en inferencia ultrarrápida con sus chips LPU.
- Broadcom y Marvell: dominantes en switches de red para data centers.
- Arista Networks: referente en switching para centros de datos empresariales.
- Nvidia: con su propia propuesta de interconexión NVLink y NVSwitch para clústeres de GPU.
La diferenciación de Eridu apunta al segmento más exigente y técnico: el entrenamiento de modelos de frontera a escala hiperescalar. No es inferencia eficiente en el borde, es el núcleo del problema de infraestructura más caro de la industria.
Por qué importa
La carrera de la IA se ha narrado como una carrera de modelos: quién lanza GPT-6, quién entrena más rápido, quién alcanza el AGI primero. Pero hay una capa invisible que lo hace posible —o lo frena—: la red que conecta las GPUs dentro de un data center.
Una Serie A de $200 millones en modo stealth, liderada por John Doerr —quien en su momento apostó por Google y Amazon— es una señal clara de dónde está la siguiente apuesta institucional. No en aplicaciones de IA, sino en la infraestructura que las habilita. Si Eridu logra demostrar que su arquitectura funciona a escala, podría redefinir cómo se construyen los data centers de la próxima generación.
Para el ecosistema de startups latinoamericano, el mensaje es relevante también: el capital más sofisticado sigue la infraestructura, no solo las apps. El próximo gran problema a resolver no está en la interfaz de usuario —está en el silicon y en la fibra que hace posible todo lo demás. Relacionado: por qué el datacenter de Stargate en Texas frenó su expansión y los desafíos de infraestructura que enfrenta OpenAI.

