El 10 de marzo de 2026, el Parlamento Europeo aprobó por 460 votos a favor y 71 en contra el Informe Voss sobre derechos de autor e inteligencia artificial generativa. No es ley todavía. Pero es la señal política más clara que Europa ha enviado hasta ahora: el modelo de entrenar IA con obras ajenas sin pedir permiso ni pagar nada tiene los días contados.
La pregunta no es si esto va a cambiar. Es cuándo, y qué tan rápido van a tener que reaccionar las empresas que construyen sobre modelos de lenguaje.
¿Qué dice exactamente el Informe Voss?
El informe —formalmente titulado Derechos de autor e inteligencia artificial generativa: oportunidades y desafíos— urge a la Comisión Europea a legislar en tres frentes que las normativas actuales (la Directiva de Derechos de Autor y la Ley de IA de la UE) no cubren de forma suficiente:
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀- Transparencia total: los desarrolladores de IA deberán revelar exactamente qué contenidos y sitios web rastrearon para sus datos de entrenamiento. Si no pueden demostrarlo, se presume infracción y el sistema podría ser prohibido en el mercado europeo.
- Registro europeo: una base de datos centralizada que liste todas las obras con derechos de autor utilizadas en entrenamiento. Permite a los titulares saber si sus creaciones fueron aprovechadas y sirve de base para reclamaciones.
- Opt-out efectivo: los creadores podrán excluir sus obras del entrenamiento y esa exclusión deberá ser respetada técnicamente, no solo declarada.
El mecanismo propuesto para canalizar todo esto es un mercado de licencias colectivas: acuerdos sectoriales gestionados por sociedades de gestión colectiva y la Oficina de Propiedad Intelectual de la UE (EUIPO), que permita tanto la remuneración de creadores como el acceso legal y escalable a datos de calidad para las empresas de IA.
Por qué esto no es solo un problema europeo
Que el informe no sea vinculante no significa que sea irrelevante. Es una posición política que adelanta lo que vendrá: la Comisión recibe una instrucción clara del Parlamento, y cualquier regulación futura de IA en Europa —que inevitablemente llegará— deberá alinearse con este marco.
Para las empresas que operan en el mercado europeo o venden a clientes europeos, el impacto es directo. Las APIs de modelos que no puedan demostrar cumplimiento podrían quedar excluidas de la UE. Los costos de licenciamiento que las grandes empresas asuman se trasladarán, tarde o temprano, a los precios que paga quien consume esas APIs.
El contexto no es abstracto. Anthropic fue expuesta por el Washington Post en su “Proyecto Panama”: un almacén con cientos de miles de libros escaneados y destruidos en el proceso, parte de un programa para obtener datos de entrenamiento. Meta descargó 81,7 TB de libros con copyright vía BitTorrent, como ya documentó el caso Kadrey v. Meta. OpenAI tiene litigios abiertos con el New York Times y grupos de autores en múltiples jurisdicciones.
La defensa estándar de estas compañías —que el entrenamiento es análogo al aprendizaje humano y queda amparado en el fair use del derecho anglosajón— funciona en EE.UU. con resultados mixtos. En Europa, ese argumento choca con una tradición legal radicalmente distinta: aquí la propiedad intelectual no tiene equivalente al fair use, y la carga de la prueba se invertirá si prospera lo que plantea el Informe Voss.
El argumento de la industria: ¿quién paga realmente?
La Asociación de la Industria de Computación y Comunicaciones (CCIA) califica la propuesta de “impuesto de cumplimiento”. Su argumento tiene algo de verdad: negociar acuerdos de licencia complejos con editores, gestoras de derechos y titulares individuales requiere recursos legales que los gigantes tienen y las startups no.
El riesgo real no es que OpenAI o Meta no puedan cumplir. Es que la regulación cree barreras de entrada que consoliden aún más a quienes ya tienen escala, desplazando a laboratorios más pequeños y a empresas europeas que intentan competir.
Pero este argumento también tiene su límite: el statu quo actual, donde los datos de entrenamiento se obtienen sin permiso y sin coste, tampoco es neutral. Beneficia masivamente a quienes llegaron primero y construyeron sus moats sobre obras ajenas. La startup que empieza hoy ya no puede hacer lo mismo porque el ecosistema está litigado.
La tesis que el Informe Voss instala
Lo que cambia con este informe no es la ley —todavía. Lo que cambia es la narrativa institucional dominante en Europa. Hasta ahora, el argumento de que regular el entrenamiento de IA frenaría la innovación tenía cierta influencia. El voto de 460 a 71 muestra que ese argumento ya no es suficiente.
La posición que cristaliza el informe es simple: los modelos de IA generativa son valiosos porque aprendieron de obras humanas. Esas obras tienen propietarios. La innovación tecnológica no puede ser el argumento para no pagar por lo que se usa. Como señaló el MEP Voss tras el voto: “la IA generativa no debe operar fuera del estado de derecho”.
Es un cambio de marco. Ya no se discute si la IA usó obras ajenas —eso está documentado—, sino quién decide bajo qué condiciones. Y en ese debate, el Parlamento Europeo acaba de poner su posición sobre la mesa con claridad.
En perspectiva comparada, Europa se suma a una tendencia global. Los tribunales alemanes ya han establecido que etiquetar contenido como «generado por IA» no cancela la responsabilidad por copyright. California aprobó la AB 2013 exigiendo que las empresas de IA divulguen sus fuentes de datos de entrenamiento, y xAI ya perdió su primera batalla legal en ese frente. El patrón es claro: la impunidad del entrenamiento masivo sin licencias es una ventana que se está cerrando simultáneamente en múltiples jurisdicciones.
¿Qué hacer si construyes sobre IA generativa?
Si tu producto integra modelos de lenguaje o herramientas de generación de contenido y opera —o aspira a operar— en el mercado europeo, hay pasos concretos que tomar ahora:
- Audita el modelo que usas: pregunta a tu proveedor sobre sus datos de entrenamiento. Los que puedan documentarlo tendrán ventaja regulatoria.
- Planifica costos con licencias incorporadas: las APIs que hoy parecen baratas podrían subir de precio cuando las empresas que las sustentan deban pagar licencias. Ajusta tu modelo financiero.
- Considera la transparencia como activo: para clientes corporativos y del sector público europeo, demostrar que usas modelos con datos licenciados puede ser un diferenciador real en los próximos 18-24 meses.
- Sigue el proceso en la Comisión: el informe es no vinculante, pero la Comisión tiene ahora presión política para actuar. El momento de entender las implicaciones es antes de que la norma sea exigible, no después.
El ecosistema creativo que alimentó a los modelos generativos —textos, imágenes, música, código— necesita incentivos para seguir existiendo. Si la IA vacía ese ecosistema sin devolver nada, a largo plazo se destruye el propio fundamento de lo que hace que esos modelos sean útiles. La regulación europea, con todas sus complejidades, está intentando resolver esa contradicción.
Lo resolverá bien o mal. Pero ya no lo está ignorando.
Fuentes
- Equipo Ecosistema Startup — UE propone licenciar obras para entrenar IA generativa
- Alejandro Alcolea / Xataka — Si la polémica es que la IA roba obras en su entrenamiento, la UE tiene la solución
- Euronews — EU Parliament urges new rules to protect creative works from AI training
- Parlamento Europeo — Nota de prensa oficial Informe Voss
- European Federation of Journalists — EFJ welcomes EU Parliament call

