Estos
empleados laboran en empresas de tecnología alimentando la IA, bajo contratos
temporales y sin estabilidad laboral
La inteligencia artificial (IA) está creando nuevas oportunidades laborales con condiciones de trabajo buenas, especialmente para perfiles digitales. Pero la otra cara de la moneda, son los empleos necesarios para que esta tecnología avance. Tres investigadoras, Timnit Gebru, Adrienne Williams y Milagros Miceli, señalan que los sistemas de IA “son alimentados por millones de trabajadores mal pagados en todo el mundo que realizan tareas repetitivas en condiciones laborales precarias”.
Detrás
de la IA hay un “ejército de trabajadores” tratados como máquinas, poniendo en
riesgo sus vidas, dañando su salud mental y física, sostienen las tres
especialistas. Estos empleados laboran en empresas de tecnología, bajo
contratos temporales y sin estabilidad laboral, etiquetando datos, controlando
entregas y moderando contenido.
Tienen
pocas herramientas y posibilidades de defender sus derechos humanos laborales,
ya sea de manera individual o colectiva, pues muchas veces les impiden organizarse,
agregan Gebru, Williams y Miceli en el documento El trabajo explotado detrás de
la inteligencia artificial, publicado en la revista especializada Noema.
Timnit
Gebru es científica en computación, especializada en IA. En 2020 fue despedida
de Google, donde dirigía el área de ética de inteligencia artificial, luego de
publicar un informe en el que advertía de los riesgos financieros y
medioambientales de esa tecnología, su uso poco regulado en la vida de las
personas, así como la explotación laboral que se ejerce para hacerla funcionar.
En
el proceso de su despido, Gebru pasó por acoso laboral y tácticas que suelen
aplicar en muchas otras personas trabajadoras en muchas partes del mundo, como
asegurar que ella fue quien presentó su renuncia.
La
profesora Adrienne Williams “es una exconductora y organizadora de entregas de
Amazon, que ha experimentado los daños de la vigilancia y las cuotas poco
realistas establecidas por los sistemas automatizados”. Ahora es parte del
Instituto de Investigación de IA Distribuida.
Milagros
Miceli es socióloga e informática. El enfoque de su investigación “son las
condiciones laborales y las dinámicas de poder en la generación y el etiquetado
de datos”, el cual realiza desde la etnografía, yendo a campo, realizando
entrevistas y apoyando a persona que trabajan como “anotadores de datos,
recolectores y científicos en varios sitios alrededor del mundo”.
Personas que suplantan máquinas
En 2020 la revista académica Big Data & Society publicó
una investigación la cual revela que muchas empresas contratan a personas para
hacerse pasar por sistemas de inteligencia artificial.
Simulan
ser chatbots, por ejemplo, para engañar a posibles inversores de que la
compañía utiliza la mejor tecnología. Esto fue documentado en el reporte
"El formador, el verificador, el imitador: tres formas en que los
trabajadores de plataformas humanas apoyan la inteligencia artificial".
Paola
Tubaro, Antonio Casilli y Marion Coville identificaron en varias empresas “la
suplantación de IA, que ocurre cada vez que los humanos superan a las
computadoras”. Esto lo realizan a través de la subcontratación de lo que llaman
“microtrabajadores” para verificar los resultados de un sistema automatizado.
“Los
humanos reemplazan parte del algoritmo”, cuando un programa tiene dificultades
para completar una tarea. Pero también lo reemplazan por completo: cuando un
algoritmo no ha sido codificado, aparentan que lo que están haciendo personas
lo hace por entero un algoritmo.
Pero
a diferencia de los salarios millonarios que reciben algunos investigadores de
IA de Silicon Valley, “estos trabajadores son explotados y a menudo reclutados
de poblaciones empobrecidas”. Los salarios que reciben son de apenas “US$1,46
por hora después de impuestos”, señalan Timnit Gebru, Milagros Miceli y
Adrienne Williams.
Ahora,
para lo que las compañías sí usan la inteligencia artificial es para vigilar al
personal. A través de sistemas automatizados, les asignan tareas repetitivas,
monitorean sus movimientos y castigan “las desviaciones”, indican las
investigadoras.
Riesgos laborales sin atender
Las discusiones sobre la IA se han enfocado en la filtración
de datos personales y su mal uso, en que el algoritmo que nos mete en una
burbuja con el mismo contenido en internet y en el reemplazo de empleos.
Pero
“la explotación laboral no es central en el discurso que rodea el desarrollo
ético y el despliegue de sistemas de IA”, lamentan Gebru, Miceli y Williams.
Tanto así, que se sabe poco de las ocupaciones en este sector. Algunas de ellas
son el manejo de datos, moderación de contenido, logística en almacén y entrega
de productos.
Quienes
se encargan de moderar contenido tienen la responsabilidad de encontrar y
marcar los temas que cada plataforma considera inapropiados. Pero eso les cuesta
graves daños a su salud mental y a su estabilidad emocional.
“Cada
video de asesinato, suicidio, agresión sexual o abuso infantil que no llega a
una plataforma ha sido visto y marcado por un moderador de contenido o un
sistema automatizado entrenado con datos probablemente proporcionados por un
moderador de contenido”.
Es
decir, gracias al trabajo de estas personas, los sistemas automatizados saben
qué textos e imágenes contienen expresiones de odio, noticias falsas, violencia
u otros tipos de contenido, explican. El personal que realiza este tipo de
tareas “sufre de ansiedad, depresión y trastorno de estrés postraumático debido
a la constante exposición a este horrible contenido”. Y lo hacen con “salarios
miserables”, subrayan las investigadoras.
Por
ejemplo, un reportaje de las periodistas Rosie Bradbury y Majd Al Waheidi,
publicado en agosto de 2022, revela que en países de África el pago que reciben
los moderadores de contenido de TikTok por revisar videos de suicidio y
crueldad animal es de menos de 3 dólares por hora.
“Además
de experimentar un entorno de trabajo traumático con apoyo de salud mental
inexistente o insuficiente, estos trabajadores son monitoreados y castigados si
se desvían de sus tareas repetitivas prescritas” y si no lo hacen en el tiempo
que el sistema les marca para realizarlo, señalan Gebru, Miceli y Williams.
En
cuanto a los trabajadores de almacén y repartidores de conglomerados como
Amazon, “deben realizar tareas repetitivas bajo la presión de una vigilancia
constante” de programas de IA. Las tareas que realizan bajo la presión de un
sistema informático “en ocasiones ponen en riesgo sus vidas y, a menudo,
resultan en lesiones musculoesqueléticas graves”.
Es
imprescindible “apoyar los esfuerzos transnacionales de organización de los
trabajadores”, apuntan las investigadoras. Las condiciones laborales de estas
personas “deberían ser una prioridad en las discusiones relacionadas con la
ética de la IA”.
No hay comentarios:
Publicar un comentario