El 18 de marzo de 2026, la secretaria de Tecnología del Reino Unido, Liz Kendall, anunció que el gobierno abandona su plan original sobre inteligencia artificial y copyright: ya no será su “opción preferida” permitir que las empresas de IA usen obras protegidas para entrenar sus modelos bajo un esquema de exclusión voluntaria (opt-out). Detrás del anuncio hay meses de presión coordinada de artistas —Elton John, Dua Lipa, Paul McCartney, Kate Bush— que convirtieron un debate técnico en una batalla cultural visible. El resultado es un empate raro: la industria creativa gana una batalla, pero la guerra del marco regulatorio sigue sin ganador.
La decisión no cierra nada. El gobierno tampoco “ya no tiene una opción preferida” —sus palabras exactas— lo que en el lenguaje burocrático británico equivale a decir: “no sabemos qué hacer, pero lo que propusimos fue un desastre político”. Tom Kiehl, director de UK Music, lo celebró como “una victoria mayor para los manifestantes”. Tech UK, que representa a las empresas tecnológicas, pidió que el tema se resuelva rápido porque “los competidores internacionales están avanzando”. Nadie está satisfecho, y eso es exactamente lo que el debate de fondo merece.
¿Qué propuso el gobierno y por qué explotó?
El plan original era una excepción de Text and Data Mining (TDM) que habría permitido a empresas de IA entrenar modelos con cualquier obra protegida disponible en línea, a menos que el titular de derechos pusiera explícitamente una señal de opt-out. En teoría, parecía equilibrado: las empresas de IA necesitan datos masivos, y los creadores que no quieran participar pueden bloquear el acceso.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀En la práctica, el esquema invierte la carga. El compositor independiente que no sabe que existe esa regulación no puede hacer opt-out. La editorial pequeña sin equipo legal que monitoree políticas públicas de IA tampoco. Y el artista que sí lo sabe descubre que implementar el opt-out requiere infraestructura técnica que muchos no tienen. Lo que el gobierno presentó como “un equilibrio” fue percibido por la industria creativa como “te robamos a menos que activamente nos lo impidas”. La metáfora de Elton John fue más directa: “es un robo a gran escala”.
La consulta pública que siguió fue aplastante: la propuesta fue rechazada “de manera abrumadora” por el sector creativo, según reconoció el propio gobierno. Los artistas ganaron el debate político, aunque todavía no hay ninguna ley nueva que los proteja explícitamente.
El contexto global que hace esto más grande que el Reino Unido
Este no es un conflicto aislado. Es parte de una tensión estructural que está redibujando el mapa legal del entrenamiento de IA en todo el mundo.
En EE.UU., el caso Kadrey v. Meta decidirá si la IA puede entrenar con libros pirateados y podría fijar precedente sobre el “fair use” en el entrenamiento de LLMs. En Alemania, un tribunal acaba de fallar que declarar que algo “es IA” no cancela el copyright: los derechos de autor siguen vigentes independientemente de cómo se generó el contenido. Y en la Unión Europea, el Parlamento ya discute ponerle precio al entrenamiento con obras ajenas mediante licencias obligatorias.
El Reino Unido en 2026 no está creando jurisprudencia: está eligiendo en qué bando ponerse del debate global. Y la decisión de hoy —no avanzar con la excepción TDM— lo alinea más con la postura europea que con la norteamericana, donde la doctrina del fair use ha sido hasta ahora el escudo de las empresas de IA.
La fractura que el anuncio revela
Lo interesante de este episodio no es que los artistas ganaron. Es que el gobierno cedió ante una coalición cultural en vez de ante una técnica. Las empresas de IA argumentaron que sin datos abiertos el Reino Unido perderá competitividad frente a EE.UU. y China. Es un argumento serio. El sector creativo respondió con Elton John diciendo “perdedores absolutos” en televisión. Y ganó el segundo argumento.
Esto revela una asimetría que los diseñadores de políticas de IA suelen subestimar: el poder político de los creadores culturales es desproporcionado respecto a su peso económico. La industria musical del Reino Unido genera £8 mil millones anuales y emplea a 220.000 personas. La industria de IA crece “23 veces más rápido que el resto de la economía”, según el propio gobierno. En términos de creación de riqueza futura, la IA gana fácilmente el argumento numérico. Pero los artistas tienen fans, tienen visibilidad pública, y tienen la capacidad de convertir una disputa de política de datos en un titular de portada. Eso importa en democracias.
El resultado práctico: las empresas de IA que entrenen modelos con contenido británico sin permiso siguen en una zona de incertidumbre legal. No hay nueva ley que lo prohíba, pero tampoco hay una excepción que lo legalice. El status quo —que las obras protegidas requieren permiso— se mantiene. Y eso tiene consecuencias reales para cualquier startup que esté construyendo modelos con datasets que incluyan contenido del Reino Unido.
¿Qué viene ahora?
Kendall prometió que el gobierno seguirá consultando y no reformará las leyes de copyright “hasta estar seguros de que cumplirán nuestros objetivos”. UK Music ya dijo que quiere discutir “réplicas digitales, transparencia, etiquetado e independencia creativa”. Tech UK pide resolución rápida. Los dos bandos tienen agendas incompatibles y el gobierno no tiene posición.
Lo más probable en el corto plazo: negociaciones sectoriales bilaterales, similar al modelo de licencias que existe en streaming musical. OpenAI ya llega a acuerdos privados con sellos discográficos para el uso de contenido musical, mientras Apple Music explora etiquetado de IA. Ese modelo —acuerdos privados en vez de marco legal general— podría ser el camino que el gobierno británico termine favoreciendo: que el mercado negocie lo que la política no puede.
El problema con ese enfoque es que beneficia a los grandes sellos con equipo legal para negociar y perjudica a los artistas independientes que no tienen ese acceso. La victoria de hoy puede convertirse en una trampa de mañana si el resultado final es un sistema de licencias que solo las majors pueden navegar.
Por qué importa para el ecosistema de IA en LATAM
El marco regulatorio del Reino Unido importa más allá de sus fronteras por dos razones. Primero, muchas startups latinoamericanas de IA que buscan escalar hacia mercados angloparlantes tienen al Reino Unido como destino natural, y la ambigüedad legal sobre entrenamiento afecta directamente sus modelos de negocio. Segundo, el patrón de regulación europeo —transparencia, licencias, protección de derechos de creadores— está llegando a LATAM: Chile ya tiene un proyecto de ley sobre IA en discusión, y los marcos que se consoliden en Europa y Reino Unido inevitablemente sirven de referencia.
La conclusión más honesta del día es esta: los artistas ganaron el debate político. Las empresas de IA siguen sin un marco legal claro. Y el gobierno británico acaba de posponer la decisión difícil. Eso no es una victoria para la innovación tecnológica, pero tampoco es la derrota que Tech UK preferiría que no fuera.

