Michael Smith no inventó el fraude en el streaming. Lo que hizo fue industrializarlo hasta dejar al descubierto algo que las plataformas preferían no nombrar: el modelo de royalties pro-rata lleva años siendo técnicamente defragmentable, y la IA simplemente bajó el costo de hacerlo a casi cero.
El 20 de marzo de 2026, el hombre de 54 años de Carolina del Norte se declaró culpable ante el juez John G. Koeltl del Distrito Sur de Nueva York. La acusación: fraude informático y a medios de comunicación. El daño: más de 8 millones de dólares en regalías robadas a Spotify, Apple Music, Amazon Music y YouTube Music, desviados de artistas legítimos durante años de operación sistemática.
¿Cómo funcionó el esquema?
Smith montó una operación industrial. Generaba cientos de miles de pistas musicales únicas usando herramientas de IA generativa, las distribuía en las plataformas bajo nombres de artistas ficticios y luego activaba redes de bots que generaban miles de millones de reproducciones falsas. No se trataba de un par de canciones y algo de trampa manual: era un pipeline automatizado donde la IA hacía la parte creativa (producir contenido que superara los filtros automáticos) y los bots hacían la parte contable (convertir esos archivos en eventos de streaming facturables).
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀El FBI investigó el caso. El Mechanical Licensing Collective (MLC), organismo que distribuye royalties mecánicos en EE.UU., detectó anomalías en los patrones de pago y colaboró con la investigación federal. Smith enfrenta hasta 5 años de cárcel. La sentencia está prevista para el 29 de julio de 2026, y deberá devolver los fondos obtenidos.
El modelo pro-rata y su talón de Aquiles
Para entender por qué esto importa más allá del caso Smith, hay que entender cómo funciona el pago en el streaming: no es por suscripción asignada, sino pro-rata. Cada mes, Spotify y compañía calculan cuántos streams totales hubo en la plataforma, y dividen el pool de regalías proporcionalmente. Si tus canciones sumaron el 0,001% de todos los streams, te llevas el 0,001% del dinero.
Eso significa que alguien que genera mil millones de streams falsos no solo cobra lo que no le corresponde — activamente le saca dinero a todos los demás artistas en la plataforma. Es matemáticamente un robo distribuido. Por cada dólar que Smith capturó fraudulentamente, hubo algún músico real cuyo cheque fue un poco más pequeño ese mes.
Este problema no es nuevo. Hubo casos previos de streaming fraud en Europa: en Dinamarca, un hombre fue condenado en 2024 por inflar 689 pistas en Apple Music y Spotify con bots. Pero lo de Smith fue el primero perseguido a escala federal en EE.UU., y el primero donde la IA generativa era parte central del mecanismo, no solo un accesorio.
Por qué la IA cambia la escala del problema
Antes, el fraude de streaming requería catálogo: necesitabas canciones reales, proceso de grabación, distribución. Eso tenía un costo mínimo que funcionaba como barrera natural. Con generación musical por IA, ese costo colapsa. Crear 100.000 pistas únicas que pasen los filtros automáticos de las plataformas se convierte en un problema computacional, no creativo ni económico.
El resultado es lo que Smith demostró: se puede construir un catálogo fantasma de escala industrial en tiempo mínimo y luego monetizarlo con bots. Las plataformas tienen incentivos estructurales para no mirar demasiado de cerca: más contenido implica más catálogo, más diversidad de géneros, más tiempo de sesión. Un artista ficticio que suma streams “reales” (aunque vengan de bots) aparece como éxito en sus dashboards.
Apple Music anunció en 2026 que comenzaría a etiquetar música generada con IA, aunque solo si la discográfica voluntariamente lo declara. Es un primer paso que no aborda el problema de fondo: etiquetar el origen de una canción no detecta si sus streams son reales.
Las respuestas del sector: etiquetas pero sin dientes
La reacción de la industria hasta ahora ha sido principalmente de detección de metadatos, no de validación de consumo. Deezer y otras plataformas anunciaron sistemas para identificar contenido generado con IA. Eso protege los derechos de autor y la transparencia hacia el oyente, pero no toca el fraude de royalties, que depende de si los streams son reales, no de si la canción fue compuesta por un humano o un algoritmo.
El problema es legal también. El debate sobre si declarar que algo “es IA” invalida el copyright está lejos de resolverse globalmente. Un tribunal alemán ya aclaró que no basta con esa declaración. Mientras tanto, la industria enfrenta un marco legal pensado para músicos humanos y una infraestructura de pagos diseñada antes de que la generación de contenido escalara exponencialmente.
Por qué importa más allá de la música
El caso Smith es un indicador temprano de un patrón más amplio: cualquier mercado que distribuya dinero en función de eventos digitales masivos —streams, clics, vistas, votos— y que dependa de sistemas automáticos de verificación, tiene una superficie de ataque estructural cuando la generación de contenido y la automatización de comportamiento se vuelven baratas.
En 2026, con modelos de IA accesibles para generar texto, imagen, audio y video, y con herramientas de automatización disponibles para casi cualquier persona técnicamente curiosa, la pregunta ya no es si este tipo de fraude escala — sino en qué otros mercados digitales está ocurriendo sin que nadie lo haya detectado aún.
El streaming musical fue el primer banco afectado. La sentencia de Smith, prevista para julio, podría ser el primer precedente judicial federal que define hasta dónde llega la responsabilidad penal en fraude asistido por IA. Y eso tendrá implicancias mucho más allá de Spotify.
Para los creadores, la lección es brutal: mientras las plataformas optimicen para engagement y el modelo de pago siga siendo pro-rata, habrá un incentivo económico permanente para inflar streams artificialmente. Smith fue el primero en ir a juicio. No será el último en intentarlo.

