Sierra duró 7 años, simuló armas nucleares y acabó triturado

Share

En octubre de 2025, el Lawrence Livermore National Laboratory (LLNL) apagó Sierra por última vez. Durante siete años, este superordenador fue la segunda máquina más rápida del mundo según el ranking TOP500 y ejecutó las simulaciones nucleares más sensibles del gobierno estadounidense. Al final, no fue a un museo ni se vendió por piezas: fue desmantelado meticulosamente y sus dispositivos de almacenamiento, triturados.

La historia de Sierra llegó tarde a los medios —WIRED publicó el relato en febrero de 2026, cuatro meses después del apagado— pero el momento importa. Estamos en pleno boom de infraestructura de IA: se anuncian centros de datos de miles de millones de dólares cada semana, se prometen decenas de miles de GPUs y se construyen campuses eléctricos como si el cómputo fuera infinito. Sierra es el recordatorio de que no lo es. Todo frontier queda obsoleto. La pregunta es qué enseña ese ciclo.

¿Qué era Sierra y para qué servía realmente?

Sierra no era un servidor grande. Era una infraestructura de 4.320 nodos de cómputo organizados en 240 racks que ocupaban unos 650 metros cuadrados dentro del Building 453 de Livermore. Su potencia pico alcanzaba los 125,6 petaFLOPS —más de 125 cuatrillones de operaciones de coma flotante por segundo— con un rendimiento sostenido de 94,64 petaFLOPS según TOP500.

Su misión era el programa Advanced Simulation and Computing (ASC) de la National Nuclear Security Administration (NNSA): simular el comportamiento del arsenal nuclear estadounidense sin necesidad de detonar ojivas reales, algo que los tratados de no proliferación hacen imposible desde los años 90. Los modelos deben reproducir con fidelidad milimétrica cómo se comportan los materiales bajo condiciones físicas extremas. Ese tipo de trabajo exige una capacidad de cómputo extraordinaria y un nivel de seguridad equivalente al del material que simula.

El consumo energético de Sierra rondaba los 11 megavatios. Para ponerlo en perspectiva: el equivalente al consumo de unos 8.000 hogares chilenos. Un dato que hoy resulta menos sorprendente cuando se sabe que la energía ya representa el 68% del costo operativo de muchos centros de datos de IA.

¿Por qué la máquina más avanzada de su generación tuvo que morir?

La respuesta corta: porque así funciona el hardware. La vida útil estándar de un superordenador de alta potencia se sitúa entre cinco y siete años. A partir de ese punto, la tasa de fallos de componentes sube de forma no lineal y el costo de mantenimiento se dispara. En el caso de Sierra, el problema era doble: algunos de sus componentes habían sido descatalogados por IBM y NVIDIA, y la versión del sistema operativo que utilizaba había perdido soporte activo.

Pero hay otro factor que pocas coberturas mencionan: el riesgo de seguridad. John Allen, el responsable de seguridad de la información del LLNL, lo resumió sin rodeos al hablar con WIRED: “Its good and faithful service is over, and we have to move on.” Mantener un sistema que procesa información clasificada con componentes sin soporte no es una cuestión de presupuesto. Es un riesgo sistémico.

La destrucción fue un proceso de semanas: desmontaje progresivo de racks, extracción de baterías, separación de componentes para reciclaje y, en los casos más críticos, destrucción física certificada de los dispositivos de almacenamiento. Los discos duros que habían procesado simulaciones del arsenal nuclear no se enviaron a un centro de reciclaje certificado ni se sobreescribieron con algoritmos estándar. Fueron literalmente triturados, el único método que garantiza que ningún fragmento de información clasificada pueda ser reconstruido.

Es un recordatorio de lo que significa borrar datos de verdad cuando lo que almacenas tiene consecuencias estratégicas. Algo que la industria de IA —donde los modelos entrenados sobre datos sensibles proliferan a velocidad industrial— tendrá que enfrentar pronto con su propio hardware.

El Capitan: un salto que cambia la arquitectura

El sucesor de Sierra no llegó solo a cubrir el hueco. El Capitan, también en Livermore, se convirtió en enero de 2025 en el superordenador más rápido del mundo con un rendimiento sostenido de 1,7 exaFLOPS —casi 20 veces superior al pico de Sierra— y un máximo de 2,7 exaFLOPS.

Lo que más interesa de El Capitan no es el número de exaflops sino la arquitectura que lo hace posible: APU AMD Instinct MI300A con memoria compartida entre CPU y GPU. El cuello de botella clásico de los sistemas anteriores era la transferencia de datos entre procesador y acelerador gráfico; El Capitan lo elimina haciendo que ambos accedan al mismo pool de memoria.

Esta transición es significativa porque Sierra ya era pionera en su momento al combinar IBM POWER9 con GPUs NVIDIA Volta V100, una arquitectura considerada poco convencional cuando fue diseñada a mediados de la década pasada. Hoy esa lógica —procesador de propósito general más acelerador masivamente paralelo— es el estándar universal de entrenamiento de modelos de lenguaje. Lo que Sierra popularizó para simulaciones nucleares, la industria IA lo adoptó masivamente para entrenar LLMs. El Capitan da el siguiente paso: eliminar la frontera entre CPU y GPU.

Arquitecturas como la de El Capitan tienen un espejo directo en la guerra actual de chips para IA. El sustrato de vidrio para empaquetado avanzado y los diseños de memoria compartida que varios fabricantes de chips están explorando apuntan exactamente en esa dirección. Sierra fue la máquina que validó la hipótesis de que los aceleradores gráficos podían hacer trabajo científico serio. El Capitan la confirma a escala.

Lo que Sierra enseña al boom de infraestructura IA

El paralelismo entre la supercomputación científica y la infraestructura de IA no es metafórico: es estructural. Los clusters de entrenamiento de modelos fundacionales de hoy son, en esencia, los descendientes directos de arquitecturas como la de Sierra. Y van a tener el mismo ciclo de vida.

Los centros de datos de IA que se están construyendo ahora mismo —algunos con inversiones de cientos de miles de millones de dólares— serán obsoletos antes de 2035. Los componentes de NVIDIA que escasean hoy y que tienen lista de espera de meses por la presión de TSMC a plena capacidad estarán descatalogados en una década. Los modelos entrenados sobre esos clusters habrán procesado datos cuya gestión al final del ciclo de vida nadie ha pensado todavía con la seriedad que Sierra obligó a pensar.

Sierra costó al gobierno de EE.UU. al menos 325 millones de dólares si se considera junto a Summit, su gemelo en Oak Ridge —también desmantelado, en 2024—. La inversión fue justificable durante siete años, y la transición fue planificada, gestionada y ejecutada con un protocolo de destrucción de datos específico para lo que había procesado. La industria de IA, que opera en tiempos más rápidos y con datos cuya sensibilidad no siempre está bien categorizada, no ha diseñado todavía ese protocolo.

La historia de Sierra no es una elegía a una máquina que murió. Es una pregunta sobre lo que viene después de que las máquinas de IA que construimos hoy lleguen al final de su ciclo. Y la respuesta de Livermore —que planificó el retiro desde el inicio, gestionó cada componente y trituró lo que tenía que triturar— no es una que la industria de data centers de IA esté preparada para dar todavía.


Fuentes

Leer más

Otras noticias