Encyclopaedia Britannica y Merriam-Webster presentaron este lunes una demanda federal contra OpenAI en Manhattan, alegando que la empresa cometió una “infracción masiva de derechos de autor” al usar sus contenidos para entrenar ChatGPT sin permiso ni compensación. El filing, publicado el 16 de marzo de 2026, añade dos nombres históricos —y con mucho peso simbólico— a la lista de editoriales que le están cobrando la factura a la IA.
Britannica, propietaria del diccionario más reconocido en inglés, retiene los derechos sobre casi 100.000 artículos de referencia publicados online. Según la demanda, OpenAI los utilizó como datos de entrenamiento para sus modelos GPT sin pagar ni pedir permiso. Además, alega que ChatGPT reproduce fragmentos textuales de esos artículos en sus respuestas —incluso en el flujo de RAG (recuperación de información en tiempo real)— y que sus alucinaciones se atribuyen falsamente a Britannica, lo que viola el Lanham Act, la ley de marcas comerciales de EE.UU.
¿Qué diferencia esta demanda de las anteriores?
La parte más interesante no es la acusación de entrenamiento sin permiso —eso ya lo han alegado el New York Times, Ziff Davis (dueño de CNET, IGN, PC Mag) y decenas de periódicos estadounidenses. Lo nuevo aquí son dos ángulos adicionales:
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀- RAG como violación continua: Britannica no solo alega que sus textos se usaron en el entrenamiento histórico, sino que ChatGPT sigue extrayendo y reproduciendo su contenido en tiempo real a través del sistema RAG. Cada vez que un usuario pregunta algo y ChatGPT busca en la web, Britannica argumenta que eso también es una infracción activa.
- El ángulo del Lanham Act: Cuando ChatGPT genera respuestas incorrectas y las atribuye implícitamente a Britannica o Merriam-Webster —ya sea porque el usuario confía en que la respuesta viene de fuentes autorizadas— la empresa alega daño a su marca. Es un argumento de responsabilidad por desinformación que va más allá del copyright tradicional.
Cabe recordar que existe un antecedente relevante en Kadrey v. Meta, que analiza si el entrenamiento con libros pirateados es fair use. En ese contexto, la única sentencia concluida hasta ahora —el caso Anthropic— resolvió que el entrenamiento puede ser transformativo, pero que descargar ilegalmente los materiales (en lugar de comprarlos) sí genera responsabilidad. Anthropic pagó 1.500 millones de dólares en un acuerdo colectivo con escritores.
¿Qué cambia de verdad?
OpenAI no comentó la demanda antes de su publicación. Pero el patrón es claro: el argumento del fair use para entrenamiento está siendo atacado desde múltiples frentes a la vez, con demandantes que representan desde periodismo de noticias hasta enciclopedias de referencia y ahora diccionarios.
Lo que hace que Britannica sea un demandante particularmente incómodo para OpenAI es que sus artículos son exactamente lo que los modelos de lenguaje quieren más: contenido largo, bien estructurado, revisado editorialmente, que cubre millones de temas con precisión. No es contenido generado por usuarios ni artículos de blog: es la base de datos de conocimiento humano más formalizada que existe online.
Si Britannica gana —o logra un acuerdo importante— el efecto en cadena sobre los modelos que usan RAG activo sobre la web podría ser considerable. No solo para el entrenamiento histórico, sino para cada consulta que un modelo haga al contenido de terceros sin licencia.
Hay un patrón que se repite: la IA usa reputación de terceros para generar valor, y esos terceros están empezando a cobrar.
Por qué importa
La demanda de Britannica tiene más potencial de impacto sistémico que muchas otras porque combina tres vectores a la vez: entrenamiento sin licencia, RAG en tiempo real y responsabilidad por desinformación. Si los tribunales aceptan que el flujo RAG también viola el copyright, casi todos los chatbots modernos tienen un problema inmediato, no solo uno histórico. Y si el Lanham Act empieza a aplicarse a las alucinaciones que confunden a los usuarios sobre la fuente de la información, la industria entera necesita repensar cómo presenta el origen de sus respuestas.

