Grammarly enfrenta demanda colectiva por su IA de expertos

Share

Grammarly ya no solo está lidiando con críticas en redes: ahora enfrenta una demanda colectiva en Nueva York por una función de IA que usó nombres reales de periodistas, autores y académicos sin permiso. La herramienta se llamaba Expert Review y prometía comentarios “inspirados” en figuras como Julia Angwin, Stephen King o Neil deGrasse Tyson.

El problema no es solo de branding dudoso. Según la demanda reportada por WIRED, la acusación es que Superhuman —la empresa detrás de Grammarly— se apropió comercialmente de identidades ajenas para vender una función premium. Y eso cambia la conversación: deja de ser una polémica de producto y pasa a ser un caso legal con daños reclamados por más de US$5 millones.

¿Qué pasó exactamente con Expert Review?

Expert Review era una función que analizaba textos y mostraba sugerencias como si vinieran de autores, periodistas o especialistas concretos. Grammarly aclaraba en letra chica que esas personas no habían participado ni dado su aval, pero en la interfaz sus nombres aparecían como una capa de autoridad encima de la respuesta de la IA.

Eso ya había generado ruido hace días. De hecho, en descubre.ai ya contamos cómo Grammarly ofrecía críticas al estilo de Stephen King y Carl Sagan sin su permiso y cómo la empresa incluso llegó a poner nombres reales en su lista de expertos sin preguntar. La novedad de hoy es que el caso escaló de la indignación pública a una demanda federal.

La única demandante nombrada por ahora es Julia Angwin, periodista de investigación y fundadora de The Markup. Pero el caso está planteado como acción colectiva en representación de otras personas cuyas identidades habrían sido usadas dentro del producto.

La demanda apunta al uso comercial del nombre y la reputación

Según WIRED, la demanda fue presentada el miércoles 11 de marzo en el Distrito Sur de Nueva York y acusa a Grammarly y a su dueño Superhuman de usar los nombres e identidades de cientos de periodistas, autores, escritores y editores para obtener ganancias. El reclamo no fija una cifra cerrada, pero sostiene que los daños superan los US$5 millones.

El punto jurídico más delicado es bastante simple de entender: una empresa no puede tomar tu nombre, usarlo para vender una función y luego decir que todo bien porque había un disclaimer escondido más abajo. Peter Romer-Friedman, abogado de Angwin, dijo a WIRED que las leyes de Nueva York y California prohíben el uso comercial del nombre y la imagen de una persona sin consentimiento.

  • Uso sin permiso: los nombres aparecían dentro del producto sin acuerdo previo ni licencia pública conocida.
  • Contexto comercial: no era una demo académica ni una parodia, sino una función integrada a un producto pago.
  • Atribución engañosa: la interfaz podía dar a entender una cercanía o validación que nunca existió.

Superhuman apagó la función, pero eso no cerró el tema

Poco antes de que se presentara la demanda, Superhuman confirmó a WIRED que desactivaría Expert Review. Ailian Gan, directora de producto, dijo que la empresa “claramente no acertó” y que reimaginarán la herramienta para dar a los expertos “control real” sobre cómo quieren ser representados —o si quieren no ser representados.

El matiz importa. En los días previos, la respuesta pública de la compañía había sido mucho más tibia. The Verge y Platformer reportaron que el primer movimiento fue ofrecer un simple correo de opt-out: expertoptout@superhuman.com. En otras palabras, si alguien quería dejar de ser usado como “experto” por Grammarly, tenía que enterarse por su cuenta y luego pedirlo por mail.

Esa lógica invierte la carga de forma absurda. No se trata de que tú tengas que descubrir que una empresa está usando tu nombre; se trata de que la empresa no debería usarlo en primer lugar sin pedir permiso. Por eso el debate aquí se conecta con algo más amplio que el caso puntual de Grammarly: la industria de IA sigue tratando el trabajo intelectual ajeno como si fuera materia prima disponible por defecto.

Esto también revela el problema de fondo con el “AI writing” empaquetado

Más allá del frente legal, el caso deja en evidencia una tensión vieja: muchas herramientas de escritura con IA no compiten solo por calidad, sino por autoridad prestada. No basta con sugerir un cambio de redacción; quieren hacerlo con la voz simbólica de alguien que ya construyó reputación durante años.

Eso es parte de por qué tanta gente se molestó. Una sugerencia genérica suena distinta si aparece firmada por un periodista reconocido o una autora famosa. Y ahí la interfaz deja de ser neutra: empieza a vender prestigio sintetizado. Si lo que buscas es escribir mejor, probablemente te convenga más entender patrones concretos —como contamos en este truco de 29 palabras para que la IA deje de sonar como robot— que confiar en una simulación de autoridad ajena.

Por qué importa

Este caso importa porque obliga a poner una línea donde muchas empresas de IA preferirían dejar ambigüedad. Entrenar con contenido público ya es una zona discutida; vender una función que usa identidades reales como empaque comercial es otra cosa. Si la demanda prospera, podría convertirse en una referencia importante para futuros conflictos sobre nombre, imagen, voz y estilo en productos generativos.

También importa por una razón práctica: la industria está entrando en una fase donde ya no basta con lanzar rápido y corregir después. Cuando una herramienta toca reputación, propiedad intelectual y consentimiento, el costo de “moverse rápido” puede terminar en tribunales. Y si tu producto necesita fingir cercanía con autores reales para parecer más valioso, quizá el problema no es de comunicación. Quizá el producto todavía no se sostiene solo.


Fuentes

Leer más

Otras noticias