Grammarly lanzó en agosto de 2025 una función llamada “Expert Review” que genera feedback de escritura “inspirado en” expertos reales — escritores, científicos, periodistas, incluso personas fallecidas. El problema: ninguno de ellos dio su permiso ni fue notificado. Y algunos de los “expertos” son los propios editores del medio que destapó la historia.
La investigación de The Verge publicada el 6 de marzo de 2026 revela que la función incluye, entre otros, al editor en jefe Nilay Patel, al editor David Pierce y a varios editores senior de la publicación. Ninguno autorizó a Grammarly a usar su nombre ni su identidad como referencia editorial.
¿Qué es exactamente Expert Review?
Expert Review es una función del sidebar de Grammarly que analiza tu texto y genera sugerencias “desde la perspectiva” de expertos en la materia. Si estás escribiendo sobre tecnología, puede ofrecerte feedback “inspirado en” Neil deGrasse Tyson, Stephen King o Carl Sagan. Si escribís sobre periodismo tech, aparecen nombres como Kara Swisher, Casey Newton o Mark Gurman.
La empresa madre de Grammarly, Superhuman, justifica la inclusión de estos nombres con una sola frase: “sus trabajos publicados son de dominio público y están ampliamente citados.” Eso es todo. Sin contacto previo, sin notificación, sin consentimiento.
El problema va más allá del permiso
La periodista Stevie Bonifield de The Verge descubrió algo revelador al probar la función: una sugerencia “inspirada en” el editor Sean Hollister le recomendaba agregar un paréntesis con contexto que ya estaba incluido en otra parte del texto. Bonifield conoce el estilo real de Hollister — la ha editado — y sabe que él habría hecho exactamente lo contrario: eliminar la redundancia.
El sistema no solo usa nombres sin permiso. En varios casos:
- Los títulos profesionales están desactualizados, describiendo a personas en roles que ya no tienen.
- Los “fuentes” del feedback llevaban a copias spam de sitios legítimos o a páginas de archivo no relacionadas.
- Los links a “ejemplos del trabajo” del experto en algunos casos apuntaban a artículos escritos por personas completamente distintas.
- En Google Docs, las sugerencias se muestran como comentarios, simulando visualmente que esa persona realmente revisó tu texto.
La historiadora C.E. Aubin lo dijo directo a Wired: “Estas no son revisiones de expertos, porque no hay ningún experto involucrado en producirlas.”
La lista de periodistas incluidos es extensa
Además de los editores de The Verge, la investigación encontró a Lauren Goode de Wired, Mark Gurman y Jason Schreier de Bloomberg, Kashmir Hill del New York Times, Kaitlyn Tiffany de The Atlantic, y varios editores de PC Gamer, Gizmodo, Tom’s Guide, Rock Paper Shotgun e IGN. Ninguno fue consultado.
TechCrunch también reportó el caso con humor involuntario: al probar la función con un borrador propio, el periodista Anthony Ha recibió sugerencias atribuidas a Kara Swisher, Casey Newton y Timnit Gebru. Ninguna de sus propios colegas en TC. Lo que, dice, fue “más decepcionante que otra cosa.”
Por qué importa
Esta no es una controversia menor de UX. Es una pregunta sobre el límite entre “inspirado en obra pública” y “usar la identidad de alguien sin su consentimiento.” Hay una diferencia entre que una IA aprenda el estilo de un escritor y que Grammarly le muestre a millones de usuarios feedback con el nombre y foto de esa persona como si fuera su trabajo real.
El disclaimer de Grammarly dice que los expertos no están “afiliados ni endorsan” la función. Pero si el feedback aparece visualmente como un comentario de Nilay Patel en tu Google Doc, el disclaimer enterrado en un artículo de soporte no cambia la percepción inmediata del usuario.
La pregunta que queda abierta: cuándo una empresa de IA tiene la obligación de pedir permiso antes de simular la voz de alguien, aunque sea “solo por inspiración”. Grammarly optó por no preguntarse eso antes de lanzar.

