En febrero de 2026, el programador y escritor Charles Petzold —conocido por su libro fundamental sobre Windows API y por décadas de trabajo técnico de primer nivel— publicó una crítica demoledora contra el DJ con IA de Spotify. No era una queja de usuario insatisfecho. Era un diagnóstico técnico: el sistema no comprende qué es una sinfonía.
La anécdota en sí es casi cómica. Petzold pidió al DJ de Spotify que reprodujera la 7.ª Sinfonía de Beethoven completa. El DJ respondió con entusiasmo: “Aquí está la sinfonía completa de Ludwig van Beethoven. ¡Vamos!” Y a continuación reprodujo solamente el segundo movimiento, seguido de un nocturno de John Field. Lo intentó con variantes cada vez más explícitas: “toca los cuatro movimientos en orden numérico.” El DJ arrancó con la 3.ª Sinfonía de Beethoven.
Pero la gracia se acaba pronto. Lo que Petzold describe no es un bug que un ingeniero puede corregir en el próximo sprint. Es un problema de arquitectura conceptual que revela algo más profundo sobre cómo construimos sistemas de IA hoy.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀¿Qué es lo que el DJ de Spotify no sabe?
El DJ de Spotify —y los sistemas similares de recomendación musical con IA— fueron entrenados y optimizados para un modelo de consumo muy específico: el pop contemporáneo. En ese modelo, la unidad básica es la canción: tres minutos y medio, autor único, intención única, principio y fin claros. Las métricas de éxito son el número de skips en los primeros 15 segundos, el tiempo de escucha promedio, la tasa de repetición.
La música de tradición clásica occidental no funciona así. Una sinfonía de Beethoven o de Mahler no es una colección de canciones: es una obra indivisible dividida en movimientos que se relacionan entre sí con intención dramática. Reproducir el segundo movimiento de la 7.ª Sinfonía de Beethoven sin el primero es como reproducir el capítulo final de una novela antes del penúltimo. La IA no lo sabe porque nadie le enseñó a distinguirlo. Y peor: el sistema tiene incentivos activos en contra de aprenderlo, porque las métricas de engagement de tracks de 25 minutos son estructuralmente distintas a las de un hit de pop.
El resultado es lo que Petzold llama “estupidez espantosa”: un sistema que asegura comprenderte pero no tiene ni la estructura de datos ni el modelo conceptual para hacerlo.
El patrón: precisión de mayoría, fallo de nicho
Este es el patrón que aparece una y otra vez en productos de IA construidos a escala masiva. La IA funciona bien para el caso mayoritario y falla sistemáticamente en los casos de menor representación en los datos de entrenamiento. No es un sesgo accidental: es la consecuencia directa de optimizar para maximizar el engagement del 90% de los usuarios.
El mismo patrón aparece en los detectores de escritura con IA que acusan falsamente a escritores no angloparlantes, en los sistemas de reconocimiento facial que son menos precisos con personas de tez oscura, o en los modelos de lenguaje que dan respuestas más coherentes sobre cultura occidental que sobre tradiciones de otros continentes. La música clásica es solo un ejemplo particularmente visible porque hay un usuario sofisticado que puede articular exactamente en qué falla el sistema.
Spotify tiene más de 600 millones de usuarios. La música clásica representa aproximadamente el 1% del streaming total. Un producto de IA diseñado para maximizar métricas globales tiene literalmente cero incentivos para resolver los problemas de ese 1%. Peor: mejorarlo podría complicar el rendimiento general del modelo.
Esto no es cinismo; es arquitectura de incentivos. Y es algo que cualquier persona que construya productos con IA debería tener presente desde el principio.
La ilusión de comprensión
Lo más revelador del experimento de Petzold no es que la IA falle. Es que la IA finge no fallar. El DJ de Spotify responde con confianza: “Aquí está la sinfonía completa.” No dice “no sé cómo hacer eso” ni “el sistema no tiene acceso a esa información.” Afirma que lo está haciendo y no lo hace.
Este es el problema central que ya documentamos en el contexto del código generado por IA: el sistema produce resultados que parecen correctos pero no lo son, y el usuario no tiene señal de alerta visible. En código, eso genera bugs silenciosos. En música, genera una experiencia rota sin diagnóstico.
Petzold plantea una pregunta filosófica genuina: ¿es correcto llamar “inteligencia” a un sistema que produce respuestas plausibles sin comprensión real? ¿Y si la respuesta es que no importa mientras funcione para la mayoría? Esa respuesta cómoda tiene un costo que pagan los usuarios que no encajan en el molde.
Lo que sí resuelven otros servicios
La comparación con competidores no es un consuelo menor. Apple Music Classical, lanzada en 2023, tomó una decisión de producto opuesta: construir una app dedicada donde los movimientos se agrupan como parte de obras completas, la navegación es por compositor y período, y se respeta la integridad de la escucha. Es una app de nicho con audiencia de nicho, pero que funciona.
Idagio, Tidal y Qobuz van en la misma dirección: curatoría experta, metadatos ricos (opus, director, año de grabación), preservación del rango dinámico con formatos lossless. La clave: decidieron desde el principio que las métricas de pop no aplican a su caso de uso.
Spotify podría hacer algo similar. Tiene los recursos, los ingenieros y el catálogo. La pregunta que Petzold deja implícita —y que es legítima— es si tiene la voluntad de construir un modelo que sirva a audiencias que no maximizan engagement por las métricas usuales.
Por qué importa más allá de Beethoven
El caso del DJ de Spotify es entretenido porque el fallo es ridículo y el crítico es elocuente. Pero el problema que describe es serio y generalizable.
Hace unos meses ya veíamos este patrón en cómo Spotify comenzó a permitir que los usuarios editen su Taste Profile manualmente, precisamente porque el algoritmo fallaba en reflejar gustos complejos o cambiantes. Esa es una corrección de usabilidad. Lo que describe Petzold es una corrección de arquitectura.
Los productos de IA a escala tienen un sesgo estructural hacia la mayoría. Ese sesgo no es neutral: excluye activamente a usuarios con patrones de consumo no estándar, ya sea en música, en búsquedas, en diagnósticos médicos o en evaluaciones crediticias. Y lo hace de forma invisible, porque el sistema siempre responde con confianza.
El antídoto no es necesariamente hacer modelos más grandes. Es ser explícito sobre las limitaciones del modelo, diseñar para que el sistema falle con gracia en lugar de fallar con falsa confianza, y reconocer que la homogeneización que produce la IA entrenada para mayorías tiene un costo cultural y de producto que no siempre aparece en los dashboards de KPIs.
Petzold terminó su artículo con una pregunta sin respuesta: “¿Quién tiene la culpa? ¿Los programadores o la entidad de IA?” La respuesta práctica es que la distinción importa menos que la consecuencia: un sistema que promete inteligencia y entrega ilusión de comprensión.

