Con IA, los adolescentes crean páginas para difamar a sus profesores

Share

Estudiantes de secundaria en Texas han encontrado una nueva forma de humillar a sus profesores: cuentas virales en TikTok e Instagram que combinan herramientas de IA para crear vídeos falsos, deepfakes y memes degradantes, todo bajo el paraguas de la “sátira”. Lo llaman slander pages, y el fenómeno está creciendo rápido.

El caso más conocido es @crandall.kirkinator, una cuenta de TikTok que llegó a decenas de miles de seguidores sin conexión con el instituto Crandall High School en Texas. Usando Viggle AI —una herramienta de IA con más de 40 millones de usuarios que permite superponer el rostro de cualquier persona en vídeos— los estudiantes insertan a sus docentes en escenas humillantes, los comparan con figuras como Jeffrey Epstein o Benjamin Netanyahu, y añaden argot de foros de la mano del manosphere. El resultado: deepfakes que se viralizan con facilidad y que son difíciles de eliminar una vez publicados.

¿Qué son exactamente las slander pages y cómo funcionan?

Las slander pages son cuentas de redes sociales, principalmente en TikTok e Instagram, gestionadas por estudiantes que publican contenido degradante sobre sus profesores o directivos escolares. La IA es el ingrediente que lo hace escalable:

  • Viggle AI (image-to-video): Transforma una fotografía estática en un vídeo de lip-sync o inserta el rostro del docente en cualquier vídeo de referencia. Según el Global Network on Extremism and Technology de King’s College London, la plataforma ya está siendo usada para crear “propaganda extremista espontánea”.
  • Argot del manosphere: Los vídeos usan términos como “mog”, “sub5” o referencias a Agartha (un símbolo del neonazismo) para clasificar a los profesores. Un vocabulario tomado de foros extremistas que normaliza el desprecio y la jerarquización por apariencia.
  • Viralidad algorítmica: Los creadores aprenden que nombrar a Epstein, Netanyahu o usar símbolos polémicos genera más engagement. No es ideología: es optimización de alcance.

El caso @thewyliefiles: “sátira” que daña reputaciones reales

El administrador de @thewyliefiles, cuenta con más de 107.000 likes en un solo vídeo, es un estudiante del Wylie High School en Texas que habló con WIRED en anonimato. Reconoce que etiquetar a un profesor como “predator y cuck” en un vídeo con imágenes generadas por IA no es exactamente inofensivo, pero insiste en que su objetivo es “hacer crecer la página lo más posible”.

El distrito escolar Wylie ISD confirmó a WIRED que está al tanto del contenido. “Si un alumno tiene una queja legítima sobre un empleado, existen canales claros para reportarla. No se ha usado ninguno de ellos para los temas mostrados en estos vídeos”, señaló en un comunicado, añadiendo que el o los responsables enfrentarán medidas disciplinarias y posibles consecuencias legales.

Meta (propietaria de Instagram) confirmó que revisó y eliminó contenido que violaba sus políticas. TikTok dijo lo mismo. Pero los investigadores advierten que la velocidad de creación supera la de moderación.

¿Por qué es tan difícil controlarlo?

İdil Galip, investigadora de cultura de internet en la Universidad de Ámsterdam, apunta a un problema estructural: los adolescentes crecen en una cultura donde las caras son recursos para el contenido, no identidades con consecuencias reales. “Se han socializado en una cultura de producción constante de contenido donde tu cara no es tuya, es del espectador, del comentarista”, explica.

El contexto educativo es también parte del problema. Los detectores de IA en el aula ya generan falsos positivos y ansiedad entre estudiantes, mientras que del otro lado del escritorio, los profesores se enfrentan a reputaciones destruidas por herramientas que cualquier adolescente puede usar gratis en su móvil.

Geert Lovink, director del Institute of Network Cultures de la Universidad de Ámsterdam, describe un “profundo desconexión tecnológica” entre lo que los estudiantes perciben como una broma inofensiva y las consecuencias reales de publicar ese contenido. Los profesores del instituto Crandall fueron acosados con llamadas y emails de desconocidos que habían visto los vídeos sin ningún contexto.

El rol de plataformas con moderación insuficiente

Viggle AI es el habilitador tecnológico central de esta tendencia, pero la plataforma no respondió a las solicitudes de comentario de WIRED. Tampoco tiene incentivos claros para restringir el uso más allá de los términos de servicio estándar.

Las redes sociales eliminan contenido cuando lo detectan, pero las cuentas se recrean o el contenido se migra a otras plataformas. Gobiernos de varios países ya debaten restricciones para menores en redes sociales —Australia, España, Dinamarca— pero ninguna regulación aborda específicamente el uso de IA generativa para acosar.

Por qué importa

Las slander pages no son solo una versión digital de las bromas de instituto. Son una manifestación de cómo las herramientas de IA generativa, sin fricción de acceso ni consecuencias de diseño, amplifican comportamientos que antes tenían alcance limitado al patio del colegio. Lo que antes era un rumor entre compañeros ahora puede llegar a 100.000 personas en 24 horas.

El patrón es conocido: la tecnología llega antes que la regulación, antes que la educación y antes que el sentido común. Viggle AI tiene 40 millones de usuarios. Los institutos no tienen políticas claras. Y los profesores siguen siendo personas reales cuyos teléfonos reciben llamadas de extraños rabiosos que vieron un vídeo falso.

El problema no desaparecerá con más moderación de contenido. Requiere que plataformas, educadores y fabricantes de estas herramientas de IA entiendan que hacer frictionless la creación de contenido sintético con caras reales tiene consecuencias que van mucho más allá del algoritmo.


Fuentes

Leer más

Otras noticias