El truco de 29 palabras para que la IA deje de sonar como robot

Share

Un desarrollador resume en 29 palabras lo que miles de personas intentan conseguir con prompts de 500 palabras: que la IA deje de escribir como robot. El método es elegante y contraintuitivo — no le dices a Claude qué evitar, le das un archivo que lo muestra. Y la fuente del archivo es Wikipedia.

El truco circula en comunidades de creadores de contenido y ya tiene varias variantes: desde el post viral de Ruben Hassid en X hasta el plugin “Humanizer” para Claude con más de 1.600 estrellas en GitHub. Todos parten de la misma idea base: aprovechar que Wikipedia mantiene un catálogo público y actualizado de los patrones que delatan el texto generado por IA.

¿Qué es el “Signs of AI Writing” de Wikipedia?

Wikipedia tiene una página interna llamada “Wikipedia:Signs of AI Writing”, mantenida por voluntarios del WikiProject AI Cleanup — una iniciativa fundada por el editor francés Ilyas Lebleu para detectar y limpiar artículos generados por IA desde finales de 2023. La página cataloga 24 patrones lingüísticos y de formato que los editores identificaron como señales características del texto de chatbots: uso excesivo de “fundamentalmente”, listas de viñetas sin necesidad narrativa, oraciones que empiezan con “cabe destacar que”, inflación de lenguaje en lugar de información concreta, y docenas más.

El insight clave es que este listado — construido por humanos que leen miles de artículos al día — es probablemente el mejor catálogo práctico de vicios de escritura IA que existe en internet. Y está disponible públicamente.

El método de los 29 palabras

La técnica que Ruben Hassid popularizó en X funciona así:

  1. Entra a Wikipedia y busca “Signs of AI writing”
  2. Copia el contenido completo de la página
  3. Pégalo en un Google Doc sin editar
  4. Descárgalo en formato Markdown (.md)
  5. Súbelo a Claude como archivo adjunto
  6. Usa este prompt de 29 palabras: “Lee el archivo adjunto. Contiene todos los patrones de escritura IA que quiero evitar. Aplica estas reglas como normas a todo lo que escribas para mí. No empieces a escribir aún — hazme preguntas aclaratorias primero.”

El resultado, según quienes lo usan: Claude lee 1.168 líneas de patrones problemáticos, los internaliza, y escribe de forma más limpia que con cualquier instrucción negativa. La diferencia entre “no suenes como IA” y “aquí está un archivo con todos los ejemplos de cómo suena la IA” es la diferencia entre darle una regla abstracta y darle ejemplos concretos que puede replicar por oposición.

¿Por qué funciona mejor un archivo que un prompt largo?

Los LLMs funcionan por patrones de similitud estadística. Cuando les das 500 palabras de instrucciones negativas (“no uses jerga, no suenes robótico, evita la voz pasiva”), el modelo está procesando texto de instrucción, no ejemplos de escritura. Cuando le das un archivo con 1.168 líneas de ejemplos reales de texto IA — frases completas, estructuras, patrones — está procesando el mismo tipo de señal con la que fue entrenado: escritura real.

Esto tiene un nombre en machine learning: aprendizaje por ejemplos en lugar de por reglas. Y en el contexto de prompting, la diferencia es medible.

El desarrollador Chen llevó esto un paso más allá con Humanizer, un plugin para Claude que automatiza el proceso: alimenta al modelo con los 24 patrones de Wikipedia y lo convierte en instrucciones de transformación. El plugin incluye ejemplos concretos de antes/después. Por ejemplo:

  • Antes: “El Instituto de Estadística de Cataluña fue establecido oficialmente en 1989, marcando un momento pivotal en la evolución de la estadística regional en España.”
  • Después: “El Instituto de Estadística de Cataluña fue establecido en 1989 para recopilar y publicar estadísticas regionales.”

La diferencia: eliminar el relleno de “momento pivotal”, “oficialmente” y la frase subordinada que no añade información. El resultado es una oración con la misma información en 40% menos palabras.

El otro lado de la moneda: ¿sirve para evadir detectores?

Aquí es donde la historia se pone interesante. Wikipedia publicó estos patrones para detectar IA. Ahora se usan para que la IA los evite. Es el mismo documento, con dos usos opuestos.

La pregunta obvia: ¿funciona para engañar detectores de IA como Turnitin o GPTZero? Según Ars Technica, la respuesta es matizada. Los detectores de IA son intrínsecamente poco fiables — ya cubrimos cómo tienen tasas de falsos positivos del 61% en estudiantes no angloparlantes. No hay nada inherentemente único en la escritura humana que la diferencie de forma confiable del texto de un LLM. Los mismos modelos que tienden hacia ciertos patrones pueden ser promteados para evitarlos.

Pero si el objetivo no es evadir detectores sino escribir mejor — más directo, más concreto, con menos relleno — la técnica funciona independientemente de si hay o no un detector de por medio.

¿Cuándo usar esto y cuándo no?

Esta técnica tiene valor real para ciertos usos. Si produces contenido escrito regularmente con IA — newsletters, posts, artículos, correos — y el resultado suena genérico o inflado, un archivo de anti-patrones puede mejorar la calidad de forma significativa sin aumentar la complejidad del prompting.

Lo que no resuelve: la profundidad factual, la voz propia, las opiniones originales. Un texto que suena humano pero dice nada sigue siendo vacío. El archivo anti-IA ataca el estilo, no el contenido. Puedes caer en AI slop incluso con un texto que no activa ningún detector — si la sustancia es hueca, el estilo solo enmascara el problema.

Dicho eso, para quien usa IA como asistente de escritura con criterio propio — verificando datos, aportando perspectiva, editando el resultado — esta técnica es una adición sólida al stack de prompting.

Por qué importa

La Wikipedia lleva dos años catalogando cómo escribe la IA, y ese trabajo colectivo se ha convertido en una herramienta de mejora para los propios modelos. Es un loop irónico: la institución que más ha sufrido el spam de IA generativa terminó produciendo el mejor antídoto práctico disponible.

Más importante: la técnica demuestra un principio que se aplica más allá de este caso. Los LLMs aprenden mejor de ejemplos que de reglas abstractas. Darle a Claude un archivo de 1.168 líneas de lo que no quieres es más efectivo que escribir 500 palabras describiendo lo que no quieres. Ese principio — enseñar por ejemplo, no por instrucción — es transferible a docenas de otros contextos de prompting.

Si ya usas Claude para escribir y el output te suena demasiado “AI”, vale la pena probarlo. El costo es zero. El prompt tiene 29 palabras.


Fuentes

Leer más

Otras noticias