Por | 23/09/2021 | Conocimiento Libre
La industria que desarrolla inteligencia artificial para entornos laborales crece y se desarrolla a grandes pasos. Principalmente se utiliza para contratar, organizar, vigilar empleados y predecir rendimiento. Mientras la automatización de la producción y el trabajo de plataformas se han debatido y politizado, es necesario analizar cómo las tecnologías de datos y la gestión algorítmica afectan al resto de trabajadoras.
“Sonó el teléfono y se despertó. Emmanuel respiró hondo y redujo la negritud de su voz a 1,5 puntos en una escala del 1 al 10. ‘Buenos días, ¿cómo está? Sí, sí, llamé hace poco para preguntar por el estado de mi solicitud de empleo. Vale, de acuerdo, muy bien. Me alegro mucho. Ahí estaré. Que tenga usted un muy buen día’”. Este es el comienzo del relato “Los cinco de Finkelstein”, uno de los que componen Friday Black, el libro de cuentos publicado por Nana Kwame Adjei-Brenyah en 2018. En esta historia, la negritud de las personas es un factor que aparece reflejado en una escala que puede ver todo el mundo y que está asociado a la peligrosidad y la delincuencia en un Estados Unidos distópico que no suena tan lejano. Emmanuel debe controlar el nivel de su negritud constantemente a través de su ropa, de su tono de voz, o de su actitud a la hora de hablar, como acabamos de leer. A pesar de que el protagonista presenta un grado de negritud bajo cuando acude a la entrevista de trabajo en una tienda de un centro comercial, en la empresa le informan de que finalmente no le van a contratar porque ya han cumplido el cupo de inclusión de minorías estipulado.
En otro futuro no muy lejano, en un dos mil veintipico en el que todo lo digital está mediado por Google, incluido el acceso al trabajo, Olga y Mateo deciden escribir una carta a modo de solicitud de empleo para tratar de hackear, mediante el uso del lenguaje filosófico y literario, apelando a la ‘humanidad’ de la máquina, a las inteligencias artificiales supeditadas a Google que median entre las personas y el mundo laboral. Esta carta es, en realidad el cuerpo de la novela Quédate este día y esta noche conmigo, publicada por Belén Gopegui en 2017.
Estos dos ejemplos de ficción no están tan lejos de la realidad que plantean los sistemas basados en aprendizaje automático aplicados a distintas esferas del mundo laboral, que van desde la selección de perfiles para la contratación hasta el control y la organización de la plantilla. Desde 2017 Facebook ha permitido a las empresas dirigir anuncios de ofertas de empleo a determinados perfiles permitiendo elegir entre variables como la edad, el género o la etnia. Existen modelos predictivos dedicados a ‘cazar talentos’, como el del software Entelo, que calculan la probabilidad de que alguien abandone su puesto de trabajo actual en base a una nueva oferta o cómo podría encajar en la compañía con base en su actividad en redes sociales. A través de encuestas o examinando el tipo de lenguaje y expresión en las comunicaciones internas, hay programas que elaboran perfiles emocionales de los empleados. Como el protagonista del relato de Kwame Adjei-Brenyah, hay teleoperadoras que tienen que controlar su tono de voz y su expresión, ya que a través de un sistema de reconocimiento de voz, un algoritmo contratado por su empresa evalúa estos y otros parámetros. Son solo algunos de los ejemplos que se recogen en The datafication of workplace (La datificación del entorno laboral), un exhaustivo informe publicado en 2019 por Lina Dencik, catedrática en la Universidad de Cardiff y cofundadora del grupo de investigación Data Justice Lab.
En los últimos años, vivimos un claro auge en la implementación de sistemas de inteligencia laboral en distintos ámbitos laborales. En julio, la dirección de la empresa rusa Xsolla despidió al 30% de su plantilla, 150 personas que fueron calificadas como ‘improductivas’ por un sistema algorítmico que medía su actividad digital. Para Carlos Gutiérrez, Secretario de Juventud y Nuevas Realidades del Trabajo de CC OO, “los algoritmos y sistemas de inteligencia artificial tendrán un papel cada vez más relevante en la determinación o condicionamiento de nuestras condiciones laborales. Esto es así ya en los nuevos moldeos de negocio, las conocidas como plataformas digitales, en las que todo pasa por la aplicación. No obstante, su uso se irá desplegando por el resto del tejido empresarial. Se está produciendo ya, poco a poco. Existen empresas, importantes empresas, que pueden diseñarlos de forma autónoma, desarrollarlos y desplegarlos”.
Tal y como señala Gutiérrez, a pesar de que en nuestros imaginarios asociamos el control y la gestión algorítmica a trabajos relacionados con plataformas digitales, como el caso de los riders, la realidad es que su penetración va mucho más allá. El Ministerio de Trabajo de Yolanda Díaz, de hecho, ha encargado un estudio a la empresa Eticas Research & Consulting, dirigida por Gemma Galdón, doctora que ha trabajado para la Comisión Europea e investigadora en numerosos proyectos relacionados con algoritmos e inteligencia artificial. Según la ministra, uno de los objetivos de este estudio es analizar los distintos usos de la inteligencia artificial en entornos laborales para complementar la conocida como ‘Ley Rider’ y legislar en aquellos ámbitos que se han quedado fuera de la misma en aspectos referentes a la contratación, la gestión del trabajo o la diferencia de poder entre empresario y trabajador.
‘Ley Rider’, un primer paso hacia una legislación algorítmica
Cuando Deliveroo anunció que se marchaba del mercado español dejó el mensaje claro: si le obligaban a cumplir la legalidad, no iba a realizar su negocio. La ‘Ley Rider’ entró en vigor el 12 de agosto. Sin embargo, ha habido quien ha señalado que Deliveroo también se marchó por la fuerte competencia dentro del sector. La compañía entró en nuestro país en 2015 y no presenta cuentas desde 2016, cuando acusaba pérdidas de 5,6 millones de euros. Uber Eats ha abogado por un modelo de subcontratación. Por su parte, otra de las grandes, Just Eat, ha abierto una mesa de negociación con CC OO y UGT para un primer convenio para riders.
El periodista de The Guardian y escritor Cory Doctorow, especializado en tecnología, explicaba en su blog que este es precisamente el modus operandi de Uber, una compañía que lleva sobreviviendo durante años con pérdidas millonarias a través de grandes campañas publicitarias que engañan a sus inversores. El objetivo de esas campañas pasa por hacer creer que lo que ofrece Uber, transporte mediado por Big Data e Inteligencia Artificial (IA), es algo que la ciudad necesita. Una de las bazas que ha jugado para la reducción de costes y revertir la situación de pérdidas ha sido la de la conducción automática, un hito que, desde luego, no se plantea en ningún horizonte de posibilidades realista. Para Doctorow, lo importante para la compañía no es si el coche autónomo será real o no, su objetivo no es crear un negocio estable, el objetivo que se deduce del análisis de sus cuentas y discurso es el de seguir recibiendo cantidades de dinero de inversores que crean que la compañía pegará el petardazo en algún momento. Cuando hablamos de tecnología, algoritmos e inteligencia artificial, el relato es un factor clave a la hora de vender productos que no sabemos si funcionan tan bien como dicen. En el caso de la compañía rusa que despidió a 150 personas, ¿podemos saber realmente si esas personas no eran lo suficientemente productivas? ¿Con base en qué?
Hay que señalar que gran parte de esta pequeña victoria que supone la ‘Ley Rider’ se debe al colectivo Riders X Derechos, entre otros. Una plataforma que tuvo que inventar de la nada una nueva forma de lucha sindical que empezaba por conocer a las personas con las que trabajas repartiendo en la calle y después en largos, continuos y costosos procesos judiciales contra la compañía. Nuria Soto Aliaga, representante del colectivo, reconoce que “el acceso al algoritmo es una de las mejores partes de la ‘Ley Rider’, se va a vincular a través de los comités de empresa. Sin embargo, esto a la vez limita la ley, ya que el resto de colectivos cuya relación laboral no se reconoce tendrán que demostrar esa relación laboral y, una vez demostrada, a través de los comités de empresa, podrán acceder al algoritmo”.
Tal y como señala Soto, a pesar de que está claramente orientada a la erradicar falsos autónomos, la ‘Ley Rider’ supone un primer paso de cara a establecer un control sobre los algoritmos en un aspecto fundamental, el derecho del comité de empresa a ser informado por la compañía “de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.
Algoritmos en entornos laborales tradicionales
Una de las principales bases para el uso de sistemas de decisión automática de machine learning en la contratación son los portales de ofertas de empleo como LinkedIn o similares, que fuerzan a los candidatos a una especificación por etiquetas y una actualización constante de datos en los mismos. Softwares como TribePad (usados por la BBC o Pizza Hut) o Workable (Decathlon o Ryanair) se nutren de la segmentación en estas plataformas para buscar talentos específicos, no siempre asociados a altos cargos. Otras herramientas como Textio Hire generan ofertas de trabajo automáticas orientadas a perfiles específicos.
Otro de los marcos de uso es el de la vigilancia de empleadas. Se conoce como vigilancia refractiva el uso de datos sobre un determinado grupo, por ejemplo los clientes de una gran plataforma, para controlar y organizar a otro que no es directamente vigilado: los empleados. Según un estudio de 2015, el 60% de las tiendas de moda en Reino Unido utilizaban sistemas de reconocimiento facial de clientes y muchos de estos productos ofrecen estadísticas de cantidad y tiempo de sonrisas entre los clientes.
En el control directo y presencial tenemos el caso de Kronos InTouch, que utiliza códigos de acceso o huellas dactilares para saber cómo se mueven y cuánto tiempo pasan los empleados en los diferentes espacios de la empresa. Un caso de uso extremo de esta tecnología es la compañía Abengoa en España, que la utilizaba para saber cuánto tiempo pasan sus trabajadores en los servicios, aunque quizás el caso más distópico, aunque poco extendido, es el de empresas como Three Square Market, que promueven el uso de chips identificativos subcutáneos entre sus empleados.
En un mundo laboral cada vez más mediado por las pantallas, VeriClock permite fichar a través del teléfono móvil con rastreo de IP y geolocalización. En el caso de Mtoag ofrecen a disposición del cliente la posibilidad de saber si la plantilla está disponible o no, si está ocupada o si ha cumplido labores concretas asignadas. RescueTime, que puede ser instalada en ordenadores y teléfonos, monitoriza la actividad de la persona vigilada en función del tiempo que se pasa en una aplicación o en determinada página web o programa. Existen otras que, a través del análisis de las comunicaciones internas o mediante encuestas, ofrecen cuadros emocionales de los empleados de cara a optimizar decisiones organizativas, como es el caso de Social Pulse, desarrollada por IBM. En 2018, la empresa estadounidense Walmart patentó un sistema de captura de voz que analizaba las conversaciones entre el personal y la clientela para sugerir cambios en el comportamiento de los primeros. No podía faltar en esta tendencia Amazon, que patentó una pulsera que analizaba los movimientos de muñeca y brazo de sus empleados a través de señales ultrasónicas y tratar de corregir los malos movimientos mediante vibraciones, de cara a aumentar la productividad.
Otro de los campos donde se está produciendo un incipiente desarrollo de estos sistemas de decisión automática es el de la administración de recursos humanos y organización del trabajo. La empresa Afiniti desarrolló un producto destinado a las compañías teleoperadoras que empareja a trabajadoras con clientes en función de características asociadas al comportamiento. Workplace realiza encuestas y obtiene datos a través de las reacciones en redes sociales a noticias o contenidos y cuenta con chatbots para acelerar los llamados procesos de incorporación de nuevos empleados. Esta aplicación se utiliza en Domino’s, Heineken, Danone, Volkswagen o WWF entre otras.
Por supuesto, algunas de las más comunes son las de evaluación de la realización de una labor, como la velocidad o el grado de satisfacción de la clientela. Estos datos agregados se usan para cruzarlos con los objetivos de las empresas. Aplicaciones como RetailNext, diseñadas para franquicias de tiendas, elaboran informes automáticos que indican qué tiendas, incluso qué cajeras, entrañan un mayor peligro a la hora de impedir alcanzar los objetivos.
Articular una respuesta sindical
Las bases sobre las que se construyen estas predicciones permanecen ocultas, así como la naturaleza de las variables usadas o la forma de entrenar a la máquina. “El problema del algoritmo es que hay muchísimas funciones que desconocemos y que siguen influyendo en la conducta de los repartidores. Sabemos la parte de la penalización, las recompensas, el tema de la excelencia a través de las puntuaciones de clientes, el rechazo de pedidos. Pero hay muchas otras variables de las que no se tiene conocimiento”, reflexiona Soto.
Sin embargo, uno de los problemas que plantea el acceso y control de estos sistemas es que ello requiere, como señala Gutiérrez, “un alto perfil técnico que la gran mayoría de trabajadores no tenemos. No obstante, nosotros no vamos a pedir el desarrollo matemático de una red neuronal, o de un sistema de machine learning, sino que las empresas deberán proporcionar información que podamos comprender, al mismo tiempo que están obligadas a proporcionar información sobre las modificaciones que lleve a cabo. Y sin embargo habrá que establecer algún tipo de protocolo para garantizar que esta información que nos proporcionan es cierta, una auditoría”.
Para Lilian Edwards, integrante del consejo asesor del Open Rights Group en temas de derecho y tecnología, catedrática de Derecho, Innovación y Sociedad en la Universidad de Newcastle; y que además se encuentra trabajando en un grupo de investigación para la regulación de la IA en la Unión Europea, “el Reglamento de la UE sobre la IA, al igual que el Reglamento General de Protección de Datos (RGPD), es bastante generalista en el sentido de que denota una serie de áreas de ‘alto riesgo’ y les aplica un conjunto de requisitos bastante detallados. Una de estas categorías es la de los sistemas de IA utilizados con fines de gestión del empleo y del rendimiento. En particular, se exige que los datos de entrenamiento utilizados para construir los sistemas sean representativos y de calidad comprobada, por ejemplo, para tratar de excluir datos históricos sesgados o etiquetado sesgado. Además, hay normas que establecen que el sistema debe prever la ‘supervisión humana”. Edwards añade que estos avances legislativos tienen aún muchos problemas y asegura que “lo más probable es que estos requisitos sean autocertificados por los desarrolladores, y no está nada claro que vaya a haber mucha o ninguna supervisión externa en comparación con el rol de las agencias de protección de datos en el RGPD”.
Además, en comparación con el RGPD, destaca que no existe el derecho de reclamación individual por parte de los usuarios/trabajadores y que “las normas se aplicarán habitualmente de conformidad con las normas técnicas elaboradas por comités que tendrán poca o ninguna aportación de los sindicatos y la sociedad civil, o experiencia con derechos básicos”, lo que está motivando propuestas para que haya una normativa laboral independiente para la IA. No obstante, recuerda la catedrática que la nueva normativa supondrá en todo caso “un paso adelante con respecto al RGPD en cuanto a la protección contra una gama más amplia de problemas de seguridad y derechos fundamentales de los trabajadores”.
Guerras narrativas en torno al algoritmo, más allá de lo laboral
“Los procesos de contratación y selección de personal son componentes centrales para establecer la legitimidad en los espacios de trabajo en la actualidad. Son un ejemplo de las pruebas centrales del capitalismo que controlan el acceso a los puestos de privilegio”, comentan la catedrática Lina Dencik (Cardiff University) y la investigadora Sanne Stevens (University of Amsterdam/London School of Economics) acerca de una investigación que están llevando a cabo, aún no publicada. “Generalmente se han señalado problemas relativos a la falta de transparencia, la responsabilidad de toma de decisiones, los sesgos y una asimetría creciente entre empleados y empresarios, sin embargo hay implicaciones más amplias en relación con el significado y la organización del trabajo en la sociedad”. Para ellas, no podemos entender la irrupción de estas herramientas sin ligarlas a tres procesos exportados desde Estados Unidos que se vienen dando en el mundo laboral de la Unión Europea y Reino Unido: la “flexibilización” de los contratos, el aumento de trabajos temporales o por proyectos y la subcontratación. La ingeniería desarrollada en este campo va destinada a gestionar los problemas derivados de estas transformaciones en el mercado laboral. Gestionar y controlar a grandes masas trabajadoras que vienen y van.
“En muchos casos, la datificación se presenta por parte de sus proveedores como un paso inevitable con el que las organizaciones tendrán que lidiar. La premisa de la mayoría de herramientas es que son capaces de ver capacidades en las personas que ellas mismas desconocen y que supuestamente pueden predecir en torno a ello”, añaden Dencik y Stevens. El acceso al trabajo es, en última instancia, una forma de organización social y la forma en que se están desarrollando e implementando estos algoritmos viene avalada por una serie de cambios y desarrollos previos que se dan a distintas escalas en la propia sociedad.
Al jefe no le evalúan los algoritmos
La proliferación de herramientas semiautomáticas para la gestión de la fuerza de trabajo solo puede entenderse en el contexto de relaciones de poder establecidos e importados que señalan Dencik y Stevens. Es interesante destacar que, en el caso de la empresa Xsolla, los directivos no son evaluados por el sistema que puntúa la de productividad de los trabajadores. Cathy O’Neil, autora de Armas de Destrucción Matemática (Capitán Swing, 2018), suele destacar que a los poderosos y los ricos nunca les evalúa un algoritmo.
La protección de los trabajadores en el contexto de gestión algorítmica del trabajo pasa por una regulación que garantice que la tecnología no contribuye a la disolución de derechos ni a aumentar las desigualdades estructurales. Partiendo de la experiencia de distintos intentos regulatorios, las expertas consultadas apuntan a la necesidad de articular propuestas interdisciplinares desde sindicatos, política, academia, expertas y demás actores sociales. Queda pendiente aprender de los vacíos legales y límites de aplicación de leyes, a menudo fruto de la actividad de lobbies internacionales, definir cómo explicar estos sistemas inteligentes a perfiles no técnicos o articular la participación de grupos sociales marginalizados. Por el momento, la ‘Ley Rider’ articula la “auditoría” de los algoritmos a través de los comités de empresa, por lo que no queda claro cómo una candidata a un puesto de trabajo puede saber que un sistema de selección la trata de manera justa o cómo un colectivo racializado podría intervenir, o incluso llegar a saber, que los anuncios de empleo en redes sociales no les excluyen de manera sistemática.
Fuente: https://www.elsaltodiario.com/laboral/inteligencia-artificial-servicio-jefes
0 Comentarios