Grammarly — ahora relanzada como Superhuman — tiene una nueva función que te permite recibir críticas de escritura “en el estilo de” Stephen King, Carl Sagan o David Abulafia. El problema: ninguno de ellos dio permiso. Sagan y Abulafia ni siquiera están vivos para darlo.
La función “Expert Review” es el ejemplo más reciente de una tendencia que acelera con la IA: usar el nombre, la reputación y la obra de personas reales como insumo de un producto comercial — sin su consentimiento, sin compensación, y a veces sin que el usuario sepa bien con qué está interactuando.
¿Cómo funciona el Expert Review de Grammarly/Superhuman?
La función aparece integrada en la interfaz de escritura de Grammarly. Al activarla, te sugiere una lista de “expertos” disponibles para revisar tu texto: académicos, escritores y divulgadores reales. Puedes seleccionar uno y recibir feedback escrito como si ese experto lo hubiera dado.
Entre los disponibles, según la documentación oficial y la revisión de Wired: escritores vivos como Stephen King y el divulgador científico Neil deGrasse Tyson, y figuras fallecidas como el editor William Zinsser y el astrónomo Carl Sagan.
El disclaimer de Grammarly dice: “Las referencias a expertos en este producto son solo informativas y no indican afiliación alguna con Grammarly ni endorsement de esas personas.” En la práctica, eso significa: usamos sus nombres e imitamos su estilo, pero no tienen nada que ver con esto.
El caso que encendió la controversia
La crítica más vocal hasta ahora vino de Vanessa Heggie, profesora asociada de historia de la ciencia en la Universidad de Birmingham. Publicó en LinkedIn un screenshot mostrando la disponibilidad del bot de David Abulafia, un historiador inglés especializado en historia medieval y del Renacimiento que murió en enero de 2026. “Obsceno”, escribió Heggie, acusando a Superhuman de “crear mini-LLMs basados en el trabajo scrapeado” de vivos y muertos por igual, traficando con “sus nombres y reputaciones”.
King y Tyson no respondieron a las consultas de Wired. La empresa sí respondió, con esta explicación de su communications manager Jen Dakin:
“Nuestro agente Expert Review examina el texto del usuario y utiliza nuestro LLM subyacente para presentar contenido experto que ayude a moldear el trabajo. Los expertos sugeridos dependen del contenido evaluado. El agente no afirma endorsement ni participación directa; ofrece sugerencias inspiradas en las obras de los expertos y orienta a los usuarios hacia voces influyentes.”
El problema legal (y ético) de fondo
La pregunta clave es: ¿sobre qué fue entrenado el modelo que imita a estos expertos? Si fue sobre su obra publicada, eso ya está en el centro de decenas de demandas de copyright activas contra empresas de IA.
Pero hay una capa adicional que hace esto diferente a simplemente entrenar sobre texto público: Grammarly usa el nombre y la imagen de estas personas como parte del producto. No solo aprendió de King — te dice que el feedback viene “en el estilo de King”. Esa atribución, aunque acompañada de un disclaimer, crea una asociación de marca que los afectados nunca autorizaron.
Para los fallecidos como Sagan, el derecho de publicidad post mortem varía por jurisdicción. Para los vivos como King, la situación es más directa: alguien está haciendo dinero con su reputación sin su permiso.
Por qué importa
Este caso no es solo un problema de Grammarly. Es un patrón que veremos repetido: a medida que los LLMs se vuelven más capaces de imitar estilos específicos, más productos querrán vender acceso a “la voz de X” como funcionalidad premium.
La pregunta que sigue sin respuesta clara es: ¿qué derechos tiene una persona sobre cómo se usa su voz, su estilo y su reputación en sistemas de IA? ¿Qué pasa cuando esa persona muere? ¿El disclaimer es suficiente protección legal, o solo protección de relaciones públicas?
Por ahora, la industria avanza y los tribunales van detrás. Mientras tanto, los usuarios deberían saber que cuando Grammarly les dice que “Stephen King revisó su texto”, lo que realmente pasó es que un modelo entrenado en sus libros generó algo que suena vagamente a cómo King escribe. King no leyó ni una palabra.
Para más contexto sobre el uso de IA en contenido creativo, también vale revisar el artículo sobre Apple Music y las etiquetas de transparencia para música generada por IA.

