Cada vez que se presenta para un puesto de trabajo, Angel presume de sus conocimientos de idiomas. «Hablo inglés con fluidez, chino bien, ruso y turco», explica esta glamorosa uzbeka de 24 años en un video tipo selfie para los reclutadores. Angel había llegado ese mismo día a la ciudad camboyana de Sihanoukville y estaba lista para empezar a trabajar de inmediato.
Sin embargo, es probable que esas impresionantes habilidades lingüísticas se hayan puesto al servicio de elaboradas estafas de “pig butchering”. Y es que, en lugar de solicitar un empleo convencional en una empresa, Angel se presentaba para trabajar como «modelo facial de inteligencia artificial», sentada todo el día frente a una computadora y realizando videollamadas falsas para manipular a posibles víctimas de estafas. Su solicitud, en la que también se pedía su altura y peso, reza que ya lleva «1 año como modelo de IA».
Modelos de IA, pero en otro sentido
Angel no es ni mucho menos la única en este empeño. Una revisión de WIRED de docenas de videos de reclutamiento y anuncios de trabajo publicados en Telegram muestra a personas de todo el mundo (incluyendo Turquía, Rusia, Ucrania, Bielorrusia y múltiples países asiáticos) solicitando ser modelos de IA o modelos de «rostro real» en Camboya y el sudeste asiático. La región se ha convertido en el hogar de vastas e industrializadas operaciones de estafa que mantienen cautivas a miles de víctimas de la trata de seres humanos y las obligan a realizar inversiones en criptomoneda en línea y estafas románticas.
Además de engañar a las personas para que trabajen en complejos de estafas, estas empresas delictivas multimillonarias de alta tecnología también pueden atraer a personas para que busquen «trabajo» como parte de las operaciones. «Desde el año pasado hasta hoy, también están contratando a personas que se dedican al modelaje de inteligencia artificial», explica Hieu Minh Ngo, investigador de ciberdelincuencia de la organización vietnamita sin fines de lucro ChongLuaDao, dedicada a la lucha contra la estafa. «Les darán el software para que puedan intercambiar su cara utilizando IA y puedan hacer estafas románticas», señala.
Ngo, un hacker criminal reformado que ahora rastrea la actividad de los complejos de estafa y apoya a las víctimas, identificó alrededor de dos docenas de canales en Telegram que tienen algunas ofertas de trabajo para modelos de IA en la región. Humanity Research Consultancy, una organización de lucha contra la trata de seres humanos, también ha rastreado a personas que solicitan en Telegram puestos de trabajo en «ciudades conocidas como centros de estafas» como «modelos» y «modelos de IA», incluida la solicitud de Angel.
El aumento de modelos de IA se produce en un momento en que los ciberdelincuentes están adoptando ampliamente la IA y utilizando el intercambio de rostros como parte de sus estafas en línea. Normalmente, los estafadores utilizan personas falsas para ponerse en contacto con posibles víctimas en redes sociales o plataformas de mensajería. Suelen utilizar imágenes robadas de famosos o de hombres o mujeres atractivos para atraer a la persona a hablar con ellos.
En una relación con una modelo
Una vez establecido el contacto, les bombardearán con atenciones para ayudarles a establecer una relación, antes de intentar que se desprendan de su dinero. En algunos casos, varias personas controlan la cuenta de los estafadores y envían mensajes a la víctima bajo una única identidad falsa. Pero si una víctima potencial pide una videollamada durante estas interacciones para comprobar, por ejemplo, si la persona con la que está hablando es real, es entonces cuando se pueden utilizar videollamadas deepfake y modelos a quienes se les cambia la cara. Algunos centros de estafa del sudeste asiático disponen de «salas de IA» desde las que se realizan las llamadas.
Los anuncios de trabajo para modelos de IA o «modelos reales» revisados por WIRED exigen jornadas laborales excesivas, ofrecen poco tiempo libre y requieren un horario incesante. Los anuncios los suele publicar el administrador de un canal y no incluyen datos de contacto ni indican para quién trabajaría la persona en concreto. En un anuncio de contratación para un supuesto contrato de seis meses se lee que la persona tendrá que enviar fotos a diario, hacer videollamadas, llamadas de voz, y crear mensajes de audio y video. «Aproximadamente 100 videollamadas al día».
Un trabajo pesado (y muy oscuro)
En otras publicaciones se enumeran hasta 150 posibles llamadas al día. «Se pueden utilizar filtros, pero hay que asegurarse de que la imagen sea realista. Se permiten videos de acción real; las pelucas están prohibidas», reza otro anuncio. Por este privilegio, la persona tendría supuestamente un día completo y cuatro medios días libres al mes. En otro anuncio se indica que el horario de trabajo es entre las 10 de la noche y las 10 de la mañana en Camboya y que se prefiere que la persona tenga «acento occidental». Un anuncio de trabajo de modelo dice: «La empresa retendrá su pasaporte para la gestión de visados y permisos de trabajo». Retener los pasaportes es una de las principales formas que tienen los estafadores de mantener cautiva a la gente.
Aunque algunos hombres solicitan puestos de modelo de inteligencia artificial, la inmensa mayoría de las solicitudes consultadas por WIRED eran de mujeres jóvenes, en su mayoría veinteañeras. A las solicitantes se les pide que envíen un breve video en el que se presenten, un texto sobre su experiencia y expectativas y fotografías suyas; a algunas se les exige que incluyan su estado civil y su estado de «vacunación».