Advertencias sobre ofertas de trabajo para ‘modelos faciales de IA’ en Telegram: un riesgo de explotación y estafa


En un reciente informe de WIRED, se identificaron docenas de canales de Telegram que publican ofertas de trabajo como ‘modelos faciales de IA’. Estas ocupaciones, que prometen remuneraciones por colaborar en la generación o el entrenamiento de modelos faciales, plantean un conjunto de preocupaciones éticas, legales y de seguridad para las candidatas, en su mayoría mujeres.

El primer riesgo observable es la ambigüedad de las tareas. Muchas ofertas describen roles que, a primera vista, parecen trabajos creativos o técnicos, pero que en la práctica requieren la exposición de la imagen personal, la participación en sesiones fotográficas o la generación de contenido visual que puede cruzar líneas de consentimiento, derechos de imagen y uso indebido. Este tipo de condiciones facilita la recopilación de material para usos no autorizados, desde la replicación de rasgos faciales hasta perfiles falsos o impersonaciones en internet.

En segundo lugar, estas convocatorias suelen acudir a plataformas con menos escrutinio que canales oficiales de empleo, lo que las hace más propensas a prácticas engañosas. Las ofertas pueden inducir a las solicitantes a entregar datos personales, imágenes de alta resolución o incluso pagos por participar, con la promesa de beneficios futuros que rara vez se materializan. En muchos casos, las promesas de pago inicial o de comisiones pueden quedar en promesas incumplidas, dejando a las víctimas con pérdidas de tiempo y de confianza.

Otro factor crítico es la posible manipulación psicológica y la presión para aceptar condiciones que vulneran la autonomía. Algunas publicaciones ocultan la verdadera naturaleza del trabajo, describiéndolo de forma neutra o glamorosa, para disminuir el escrutinio y la curiosidad de posibles víctimas. Esta táctica facilita que mujeres jóvenes o en situación de vulnerabilidad acepten participar, creyendo que están accediendo a oportunidades legítimas.

Desde una perspectiva de periodismo de investigación, resulta fundamental verificar la autenticidad de las ofertas, identificar a los responsables de los canales, y rastrear las rutas de ingresos y distribución de beneficios. Las plataformas deben asumir responsabilidad en la moderación y eliminación de contenido que promueva explotación laboral o uso indebido de imágenes faciales. Los lectores deben entender que, cuando se trata de modelos faciales de IA, la línea entre trabajo creativo y explotación corporativa puede volverse difusa, y la protección de la integridad y la privacidad de las personas es prioritaria.

Para las mujeres que buscan empleo y para las plataformas que median estas vacantes, se proponen las siguientes pautas:

– Desconfiar de ofertas que soliciten imágenes de alta resolución, videos, o datos biométricos sin un contrato claro y justo.
– Verificar la legitimidad de la empresa o la fuente que publica la oferta, buscando reseñas independientes, información de registro y presencia en portales de empleo reconocidos.
– Exigir un contrato por escrito que detalle el alcance del trabajo, derechos de uso de las imágenes, compensación y fechas de pago, así como cláusulas de retirada voluntaria.
– Consultar asesoría legal o de derechos de imagen antes de compartir material sensible o personales.
– Denunciar publicaciones sospechosas ante las plataformas correspondientes y, cuando corresponda, ante autoridades de protección de datos o empleo.

Este fenómeno subraya la necesidad de una vigilancia informativa rigurosa y de políticas claras por parte de plataformas tecnológicas y medios de comunicación para evitar normalizar prácticas que conviertan a las personas, especialmente a las mujeres jóvenes, en recursos para prácticas comerciales cuestionables o ilegales. La transparencia en las condiciones laborales y el fortalecimiento de las salvaguardas de privacidad son esenciales para frenar abusos y proteger a las víctimas potenciales.
from Wired en Español https://ift.tt/7gAHdjZ
via IFTTT IA