La IA puede desenmascarte: así funciona el sistema que rompe el anonimato online

Share

¿Tienes una cuenta alternativa en Reddit, una finsta o un perfil anónimo en Glassdoor donde te quejás de tu jefe? Un nuevo estudio sugiere que la IA puede desenmascararte — y hacerlo de forma automatizada, rápida y barata.

Investigadores de ETH Zurich, Anthropic y el programa MATS (Machine Learning Alignment and Theory Scholars) construyeron un sistema de agentes de IA capaz de reidentificar cuentas anónimas con hasta un 68% de precisión al 90% de confianza, superando ampliamente a los métodos computacionales tradicionales. El hallazgo, aún sin revisión por pares, abre preguntas incómodas sobre qué tan real es el anonimato en internet hoy.

¿Cómo funciona el sistema que “desenmascara”?

El sistema trata cada perfil anónimo como un conjunto de pistas. Analiza los textos en busca de patrones: peculiaridades de escritura, detalles biográficos involuntarios, frecuencia y horario de publicación. Luego escanea millones de otras cuentas buscando la misma combinación de rasgos, compara las mejores coincidencias en detalle, y produce una lista corta de identidades probables.

Los investigadores probaron el sistema en varios datasets:

  • Reddit (cuentas divididas): Tomaron cuentas reales y las dividieron en dos mitades anónimas. El sistema las vinculó correctamente. Con apenas una película en común mencionada, acertó el 3% de las veces al 90% de precisión. Con 10 o más películas mencionadas, el éxito subió a casi el 50%.
  • Hacker News y LinkedIn: Textos públicos de plataformas distintas fueron correlacionados para identificar personas.
  • Encuesta de científicos de Anthropic: El sistema identificó 9 de 125 investigadores a partir de sus respuestas a una encuesta anónima. En un ejemplo concreto, el uso de inglés británico + referencias a un supervisor + trabajo en biología con base en ciencias físicas llevó al sistema a identificar a un candidato específico.

Lo que cambia: automatización y costo

El punto clave no es que esto sea posible — un investigador humano paciente siempre pudo hacer algo similar. Lo que cambió es la escala, la velocidad y el costo.

El experimento completo costó menos de US$2.000: entre US$1 y US$4 por perfil analizado. Lo que antes requería horas de trabajo de un investigador especializado ahora puede ejecutarse a escala industrial. “La economía es totalmente diferente ahora”, advirtió Simon Lermen, coautor del estudio, en declaraciones a The Verge.

Eso amplía dramáticamente quién puede intentar descubrir la identidad de alguien — y con qué motivaciones. Los grupos que históricamente “pasaban desapercibidos” podrían encontrar que ya no es tan fácil hacerlo.

¿Quiénes están en riesgo?

Los investigadores identifican tres grupos especialmente vulnerables:

  • Periodistas, activistas y disidentes que dependen de seudónimos para protegerse
  • Whistleblowers que reportan irregularidades de forma anónima
  • Usuarios comunes que asumen que sus cuentas “alternativas” son privadas

También advierten sobre riesgos comerciales: publicidad hipersegmentada usando identidades cruzadas, y estafas “altamente personalizadas” construidas a partir de perfiles reconstruidos.

Lo que no significa: la privacidad no está muerta

Importante no exagerar. “Estos algoritmos están mejorando, pero están lejos de lo que un humano puede hacer”, señaló Luc Rocher, profesor del Oxford Internet Institute, al ser consultado por The Verge. Los experimentos se hicieron en condiciones de laboratorio con datasets cuidadosamente preparados.

Satoshi Nakamoto — el creador anónimo de Bitcoin — sigue siendo un misterio después de más de una década. Signal sigue protegiendo comunicaciones privadas. Y las precauciones básicas siguen funcionando: mantener cuentas separadas, limitar detalles personales, evitar patrones identificables como publicar solo en tus horarios de vigilia.

Por qué importa

Este estudio es una señal de alerta sobre una dinámica que se va a acelerar. Los modelos de IA mejoran, los datos disponibles en internet crecen, y el costo de la automatización baja. Lo que hoy identifica al 7% podría identificar al 30% dentro de dos años.

Para quienes trabajan con fuentes confidenciales, para activistas en regímenes autoritarios, o simplemente para quienes asumían que su “alt account” era invisible, este estudio dice: no asumas. Lo que publicaste es permanente, y los patrones que dejás son más ricos de lo que imaginás.

La responsabilidad, argumentan los investigadores, no puede recaer solo en los usuarios. Los laboratorios de IA deberían monitorear el uso de sus herramientas y construir salvaguardas que impidan usarlas para desanonimizar personas. Las plataformas también tienen un rol.

Este tema conecta directamente con el artículo de esta semana sobre la demanda contra Meta por sus gafas inteligentes, que también involucra revisión humana de contenido sensible capturado sin consentimiento claro.


Fuentes

Leer más

Otras noticias