Reddit verifica quién es humano y quién es bot: qué cambia y por qué importa

Share

Reddit ya borra un promedio de 100.000 cuentas bot por día. Pero eso no es suficiente. El CEO Steve Huffman anunció esta semana que la plataforma comenzará a exigir “verificación de humanidad” a las cuentas que muestren comportamiento automático o sospechoso. La medida no apunta al contenido generado con IA —eso sigue permitido— sino a algo más específico: las cuentas que operan de manera automatizada, sin un humano al volante.

La distinción importa más de lo que parece. En un momento en que se proyecta que el tráfico de bots superará al tráfico humano en internet para 2027, Reddit está apostando a que su valor de mercado depende de que esa diferencia sea trazable.

¿Qué cambia exactamente?

Según Huffman, la verificación solo activará cuando Reddit detecte comportamiento “automatizado o de otro modo sospechoso” en una cuenta. Es un proceso focalizado: la mayoría de los usuarios nunca lo verá. Si la cuenta no puede demostrar que hay un humano detrás, “puede ser restringida”.

Aprende IA con nosotros

Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.

👥 Únete gratis 🚀

Las opciones que Reddit está explorando van de menor a mayor intrusión:

  • Passkeys — Útil, pero solo confirma que “probablemente un humano hizo algo”, no que esa persona sea única.
  • Biometría de terceros — Como World ID, que usa escaneo de iris para emitir un identificador único sin revelar la identidad real.
  • Verificación de identidad oficial — Último recurso, ya requerido en algunos países como Reino Unido. Huffman lo califica como “el método menos seguro, menos privado y menos preferido”.

Paralelamente, Reddit anuncia una etiqueta “App” para las cuentas que operen bots de manera legítima y autorizada. Los desarrolladores podrán solicitar ese badge. Es una concesión importante: el objetivo no es eliminar la automatización, sino hacerla visible.

Por qué Reddit hace esto ahora

No es una reacción alarmista. Es una decisión de negocio con varias capas.

Reddit se vende a los anunciantes como plataforma de conversaciones reales entre personas reales. Eso es su diferenciador. También ha monetizado años de contenido humano vendiéndolo a empresas de IA para entrenar LLMs, con acuerdos millonarios como el de OpenAI. Si esa materia prima empieza a ser, en realidad, contenido de bots generado por los mismos LLMs que pagaron por entrenarse con contenido humano, el modelo colapsa.

Hay un antecedente reciente que ilustra el riesgo. El Digg relanzado tuvo que cerrar su beta abierta después de tres meses cuando fue invadido por bots de IA sofisticados que los moderadores no podían contener. Reddit vio eso y no quiere ser el próximo.

El sitio ya tenía medidas activas: elimina esas 100.000 cuentas diariamente, en su mayoría antes de que los usuarios las vean. Pero la escala del problema va subiendo más rápido que las defensas. Los agentes de IA son cada vez más baratos de operar, más convincentes, y más difíciles de distinguir por comportamiento superficial.

El dilema: privacidad vs. integridad

La verificación de identidad en plataformas anónimas es uno de los debates más complicados del internet contemporáneo. Reddit ya había explorado antes el uso de Face ID para este propósito, y la reacción de su comunidad fue mixta: algunos aplauden la medida, otros la ven como el principio de una erosión del anonimato que ha sido central en la cultura de la plataforma.

Huffman reconoce la tensión y elige sus palabras con cuidado. La verificación, dice, “nunca mezclará información de tu cuenta, datos de uso e identidad”. El diseño apunta a demostrar humanidad única sin vincular esa humanidad a un perfil de Reddit ni a una identidad real. En la práctica, eso es posible con técnicas de zero-knowledge proofs, que permiten demostrar un hecho (eres humano, eres mayor de edad, eres único) sin revelar el dato que lo sustenta.

El problema es que “posible” y “lo que realmente implementan” no siempre coinciden. Y la elección de terceros —como World ID de Sam Altman, que requiere escaneo de iris— plantea preguntas sobre quién guarda qué datos y bajo qué jurisdicción.

La parte que más revela: el contenido de IA sigue permitido

Aquí está la distinción editorial más importante de este anuncio: Reddit no está peleando contra la IA como herramienta creativa. Un usuario humano puede escribir su post con ChatGPT y eso está bien. Lo que no está permitido es que sea un agente automatizado quien lo publique, lo vote, lo comente y lo replique a escala.

Eso marca una postura filosófica clara. El problema no es la procedencia del contenido sino la responsabilidad de quien lo publica. Un humano que usa IA asume responsabilidad sobre lo que publica y puede ser sancionado. Un bot anónimo no. Para Reddit, esa diferencia es la que define si la plataforma sigue siendo una comunidad o se convierte en un campo de batalla entre agentes autónomos.

Otros espacios ya vivieron versiones de este colapso. El spam de IA llegó a Hacker News y forzó medidas reactivas de moderación. Reddit tiene más escala que HN, más comunidades semi-públicas y menos control editorial centralizado. La verificación proactiva, aunque selectiva, puede ser más sostenible que apagar incendios uno por uno.

Por qué importa

Este movimiento de Reddit es uno de los primeros intentos serios, a escala masiva, de establecer una distinción operativa entre agentes de IA y humanos en una plataforma de conversación social. No es el debate filosófico sobre si la IA es consciente. Es la pregunta más práctica: ¿a quién le permitimos participar en un espacio que se define por ser humano?

La respuesta que Reddit está construyendo tiene implicaciones para toda la industria. Si funciona sin sacrificar el anonimato, podría volverse un estándar. Si falla —por implementación torpe, por barreras de privacidad, por evasión técnica de los bots— será otra prueba de que el problema de autenticidad en internet es más difícil de resolver de lo que cualquier CEO puede admitir en un post de blog.

Lo que está en juego para Reddit es claro: su producto es la conversación humana, y ese producto se deprecia si los humanos no pueden saber con quién están hablando.


Fuentes

Leer más

Otras noticias