100 llamadas deepfake al día: el mercado laboral del fraude IA en Camboya

Share

Angel llegó a Sihanoukville, Camboya, con sus cuatro idiomas listos y un currículum de un año como “AI model”. En el video de candidatura que envió por Telegram, habla en inglés fluido, chino, ruso y turco. No está buscando trabajo en una multinacional: está aplicando para hacer videollamadas con deepfake, hasta 100 por día, como parte de un aparato industrial de estafas de inversión en criptomonedas. Y lo hace voluntariamente.

Una investigación de WIRED publicada el 16 de marzo de 2026 documenta docenas de canales de Telegram donde personas de Ucrania, Turquía, Rusia y múltiples países asiáticos se postulan para ser “modelos de cara real” o “modelos de IA” en los llamados pig butchering scams — estafas donde las víctimas son engordadas emocionalmente durante semanas antes de convencerlas de invertir en cripto falso.

¿Cómo funciona el mercado de “AI face models”?

Los pig butchering scams clásicos usaban fotos robadas de celebridades para crear personas ficticias en redes sociales. El problema: cuando la víctima pedía una videollamada para verificar que la persona era real, el fraude se caía. La solución que encontraron las organizaciones criminales fue contratar modelos en carne y hueso que, usando software de intercambio de cara (face-swap) en tiempo real, aparecen en video siendo quien la víctima cree que conoce.

IA para el Resto de Nosotros

La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.

→ Inscríbete hoy 🚀

Los anuncios de trabajo revisados por WIRED exigen horarios de hasta 14 horas diarias, un día completo libre al mes, y entre 100 y 150 videollamadas por turno. Algunos piden que la persona tenga “acento occidental”. Un anuncio declara que “la empresa retendrá tu pasaporte para gestión de visados” — mecanismo clásico para controlar a trabajadores en compound scam, aunque en este caso los candidatos parecen llegar voluntariamente buscando el sueldo.

Los salarios ofrecidos llegan a $7.000 dólares mensuales, según Humanity Research Consultancy, que también ha rastreado estas aplicaciones en Telegram. Los candidatos no ocultan su experiencia previa: “Tres años como atención al cliente de plataforma cripto de estafas”, escribe uno. “Sé cómo hacer que confíen en nosotros y cómo hacerlos reír”, explica otro.

¿Qué cambia en la ecuación del fraude?

Lo perturbador no es solo que la tecnología deepfake en tiempo real sea ya accesible para organizaciones criminales. Es que están construyendo una cadena de trabajo organizada alrededor de ella.

Frank McKenna, estratega de la firma anti-fraude Point Predictive, interceptó mensajes de estafa que llegaban a su madre y concertó una videollamada con los operadores. La mujer en cámara tenía un filtro de IA aplicado a su cara: “era glitchy, había ruido de otras personas en la sala”. Al mes, McKenna encontró el video de candidatura de la misma modelo buscando un nuevo contrato. “Parece que van de lugar en lugar, completamente de forma voluntaria, ganando bastante bien.”

El modelo industrial resultante: un pool de modelos que rotan entre distintos compound scam, haciendo decenas de llamadas diarias bajo docenas de identidades ficticias simultáneas. Es una célula de trabajo, con roles, turnos y KPIs. En México, los fraudes basados en IA crecieron 1.000% en 2025; el modelo de los “AI face models” profundiza la amenaza porque combina automatización con trabajo humano entrenado en construir confianza emocional.

Por qué importa más allá del titular

La defensa clásica ya no funciona. “Pídele una videollamada para verificar que es real” era el consejo estándar contra estafas románticas. Ese consejo está obsoleto. El nivel de sofisticación actual permite una cara diferente en tiempo real durante toda la llamada, en cuatro idiomas, con experiencia de un año en el rol.

El modelo de negocio criminal está madurando. Al igual que las granjas de contenido IA generan miles de sitios de desinformación con estructuras casi corporativas, los compound scam están formalizando roles, contratos y cadenas de suministro de talento humano especializado.

La responsabilidad de las plataformas sigue siendo difusa. WIRED envió a Telegram la lista de dos docenas de canales con anuncios de modelos IA. La plataforma no eliminó ninguno. Su respuesta: el contenido “debe examinarse caso por caso”. Mientras tanto, la desinformación generada con IA ya se cuela en medios legítimos; la estafa IA se escala con un pool de voluntarios humanos. El vector humano es el eslabón que las herramientas de detección tecnológica actuales no pueden cerrar solos.


Fuentes

Leer más

Otras noticias