DuckDB lleva Big Data a un MacBook Neo de US$599

Share

DuckDB acaba de hacer una demostración incómoda para la nube: un MacBook Neo de US$599 puede mover cargas analíticas bastante serias sin despeinarse. No estamos hablando de abrir un CSV en Excel, sino de correr benchmarks estándar como ClickBench y TPC-DS en un equipo con chip A18 Pro y apenas 8 GB de memoria unificada.

La conclusión importante no es que la nube murió. Es otra: muchísimas startups, analistas y equipos pequeños están pagando infraestructura antes de necesitarla. Y si tu trabajo real cabe en una sola máquina bien aprovechada, DuckDB te da una forma bastante convincente de retrasar esa cuenta.

¿Qué probó exactamente DuckDB en el MacBook Neo?

El 11 de marzo de 2026, el equipo de DuckDB publicó un benchmark enfocado en una pregunta muy concreta: qué tan lejos puede llegar el MacBook Neo, el portátil de entrada que Apple lanzó por US$599. La unidad usada por DuckDB fue la versión con SSD de 512 GB, que sube el precio a US$700 en Estados Unidos o €800 en Europa, pero mantiene la misma limitación clave: 8 GB de RAM y un solo chip Apple A18 Pro de 6 núcleos.

Ese detalle importa porque pone el experimento en contexto. No es una workstation disfrazada de laptop barata. Es un equipo claramente recortado, con almacenamiento correcto pero no espectacular, memoria fija y una CPU derivada del iPhone 16 Pro. Justamente por eso el resultado llama la atención.

Si quieres el contexto del equipo, ya revisamos por separado qué trae el MacBook Neo de US$599. La novedad aquí es otra: ver si ese hardware alcanza para analítica local real y no solo para marketing de “IA en tu laptop”.

Los números que sí cambian la conversación

En ClickBench, un benchmark analítico sobre una tabla ancha de 100 millones de filas, el MacBook Neo completó el total de consultas frías en 59,73 segundos, con una mediana de 0,57 segundos por query. En corridas calientes, terminó en 54,27 segundos, con una mediana de 0,41 segundos.

¿Contra qué compitió? DuckDB lo comparó con dos instancias cloud: una c6a.4xlarge con 16 vCPU AMD EPYC y 32 GB de RAM, y una c8g.metal-48xl con 192 vCPU Graviton4 y 384 GB de RAM. Obviamente la máquina gigante gana cuando ya todo está cacheado, pero el dato interesante está en el medio: en tiempo total de corrida caliente, el MacBook Neo quedó solo un 13% por detrás de la c6a.4xlarge, pese a tener 10 hilos menos y cuatro veces menos memoria.

En TPC-DS, que representa consultas más complejas y más cercanas a un data warehouse empresarial, el panorama fue igual de interesante. A escala SF100, el equipo completó la suite con una mediana de 1,63 segundos por consulta y un total de 15,5 minutos. A escala SF300, donde la restricción de memoria ya pega de verdad, DuckDB recurrió al “spilling” a disco y aun así terminó todas las consultas en 79 minutos. La consulta 67 tardó 51 minutos por sí sola, lo que muestra claramente dónde está el límite.

  • Lo sorprendente: un laptop de entrada puede ejecutar analítica local sobre datasets mayores que su RAM gracias al procesamiento fuera de memoria.
  • Lo importante: el cuello de botella ya no es solo el CPU; también pesan muchísimo el almacenamiento local, el ancho de banda de memoria y cómo el motor administra el uso de disco.
  • Lo honesto: esto no convierte al MacBook Neo en reemplazo universal de BigQuery, Snowflake o Spark.

¿Por qué DuckDB logra esto donde otras herramientas no?

La respuesta corta es que DuckDB está diseñado para exprimir una sola máquina. Es una base de datos analítica embebida, orientada a columnas y muy eficiente para leer, filtrar, agregar y cruzar grandes volúmenes de datos sin levantar un servidor aparte. Eso le permite aprovechar muy bien el hardware local cuando el problema cabe, aunque sea con ayuda de disco.

Además, el benchmark se corrió con versiones recientes del motor. En ClickBench usaron DuckDB 1.5.0, lanzado el 9 de marzo con varias mejoras de rendimiento y una CLI más amigable. En TPC-DS usaron la línea LTS 1.4.4. No es un detalle menor: la tesis de DuckDB es que una base analítica bien construida puede hacer mucho más con hardware común de lo que asumimos.

Ese mismo cambio de mentalidad aparece en otras capas del stack. Hace poco vimos cómo Nvidia abrió Nemotron 3 Super con foco en eficiencia para tareas complejas, y también cómo RCLI empuja IA local en Apple Silicon. La señal es la misma: el software está empezando a adaptar sus ambiciones al hardware que la gente realmente tiene, no solo al que aparece en demos con presupuesto infinito.

¿Para quién sí tiene sentido y para quién no?

Si eres founder, analista, periodista de datos o alguien que explora datasets medianos en solitario, esta historia sí te toca. Porque tu problema real probablemente no es “Big Data” en el sentido corporativo del término. Tu problema es hacer consultas rápidas, iterar sin fricción, no subir datos sensibles a terceros y no quemar presupuesto demasiado pronto.

Ahí DuckDB en un MacBook Neo tiene bastante sentido. Puedes trabajar en local, evitar latencia de red, mantener control sobre tus datos y posponer el salto a infraestructura compartida. Incluso si el equipo tiene solo 8 GB de RAM, DuckDB puede volcar a SSD cuando hace falta. No es elegante, pero funciona.

Ahora, si tu operación ya depende de múltiples usuarios concurrentes, pipelines continuos, datasets de cientos de gigabytes o terabytes, o dashboards productivos que no pueden esperar, entonces no. El propio post de DuckDB es claro: para cargas de datos diarias, ese MacBook Neo no es la mejor compra, y modelos Air o Pro van a rendir mejor. Y si lo tuyo es trabajo multiusuario o almacenamiento masivo, la nube sigue siendo el camino lógico.

Por qué importa

Lo más valioso de esta prueba no es el benchmark, sino la bofetada al hábito. Durante años, el discurso de datos empujó a equipos pequeños a pensar en infraestructura distribuida demasiado pronto: warehouse, orquestación, pipelines, servicio gestionado, y luego vemos qué hacemos con el negocio. DuckDB propone lo contrario: primero exprime una máquina, después escala.

Eso cambia costos, velocidad y hasta gobernanza. Un equipo chico puede validar hipótesis con menos complejidad, mantener datos sensibles fuera de terceros y entender mejor cuándo de verdad necesita infraestructura cloud. En 2026, cuando hablar de IA y datos suele venir acompañado de facturas infladas y arquitecturas sobrediseñadas, ese recordatorio vale oro.

No, un MacBook Neo no se convirtió mágicamente en un clúster. Pero sí quedó claro que la frontera entre “esto necesita nube” y “esto todavía cabe en tu laptop” estaba bastante peor dibujada de lo que muchos vendors quisieran admitir.


Fuentes

Leer más

Otras noticias