VALÈNCIA. "Si no repartimos mejor los beneficios de la tecnología, podemos volver a una ola ludista". Esta es una de las reflexiones de Adrián Todolí, profesor de Derecho del Trabajo y de la Seguridad Social en la Universitat de València (UV), quien medita sobre el avance de la inteligencia artificial y el mercado laboral en su último libro "Algoritmos productivos y extractivos: cómo regular la digitalización para mejorar el empleo e incentivar la innovación", publicado en el editorial Aranzadi. Un ensayo que parece distopía, pero en el que narra hechos que ya suceden en grandes compañías como Amazon, donde trabajadores de los centros logísticos son llevados al límite debido a la monitorización constante y al látigo del algoritmo.
Todolí versa en su libro sobre cómo la inteligencia artificial, cuando se dan malas prácticas empresariales, 'aprieta' al trabajador hasta llevarle a situaciones límite en un contexto en el que se dan los resultados del algoritmo por buenos y objetivos a pesar de haber sido programado por humanos. Sin embargo, los algoritmos pueden discriminar en cuanto a la selección de personal se refiere, y pueden contribuir a 'exprimir' a los trabajadores si no se regulan de forma adecuada. Un escenario en el que Todolí apuesta por dar más derechos a los trabajadores y sindicatos y no regular y prohibir directamente la tecnología.
- Cuando empecé a leer su libro sobre la distopía que pueden generar los algoritmos en el mundo laboral pensé que no estábamos tan lejos de Years and years o Black Mirror.
- Se está experimentando. Hay muchas empresas contratando algoritmos para ver qué son capaces de hacer y es verdad que probablemente la parte más distópica sea el momento de experimentación. Luego se irá consolidando y muchas prácticas dejarán de hacerse. Pero ahora, si ves algunas de las prácticas que se están realizando, sí puede ser distópico.
- ¿Qué le motivo a escribir un libro sobre algoritmos y el mundo laboral?
- Empecé a investigar en materia de riders y plataformas, pensando que la pauta distintiva o principal era la plataforma, y aunque eso es importante, luego me di cuenta de que el algoritmo era el que lo hacía todo. Pero el algoritmo no está solo en plataformas, también está en otras empresas. Por lo tanto, aunque durante mucho tiempo mi línea de investigación fueron las plataformas, luego me di cuenta de que podía separar la inteligencia artificial como un objeto de reflexión, porque está más extendido. Sin irte muy lejos, en València hay empresas del calzado en las que se utilizan máquinas que deciden cuál es el ritmo de trabajo.
Establece cuántos zapatos tiene que hacer cada trabajador, pero también qué tipo de materiales trabaja mejor cada uno. Eso lo detecta el algoritmo y les manda ese tipo de zapatos y no otros, porque tiene aprendido que esos los hace más rápido. Por lo tanto, el algoritmo está contando cuánto tardas en cada uno de los zapatos y luego decide dónde eres más bueno, pero sin preguntarte si te gusta hacer eso u otras cosas. Al final, la especialización máxima llega cuando es el propio algoritmo sin posibilidad de negociación es el que te dice, esto esto es lo que se te da bien y a este ritmo.
- En el libro se diferencian dos tipos de algoritmos, los productivos y los extractivos. ¿Cuál es la diferencia?
- Cuando hablamos de innovación o tecnología, es muy importante saber qué hace esa tecnología y cuáles son los efectos. Ahí entra muchas veces el debate del ludismo, donde se habla de prohibir o restringir la tecnología. Pero yo soy ‘tecno-optimista-. Creo que la tecnología puede mejorar mucho la sociedad, pero bien usada. Tiene que ser tecnología que elimine tareas repetitivas, incómodas y que, en general, mejore la productividad. Que con el mismo tiempo de un ser humano se consiga hacer más cosas, eso es lo ideal.
"Hay algunas malas prácticas en las que se está utilizando esta tecnología para abaratar costes, haciendo que el trabajador trabaje más rápido"
Pero ahora, hay algunas malas prácticas en las que se está utilizando esta tecnología para abaratar costes haciendo que el trabajador trabaje más rápido y esto provoque problemas de salud o incluso excluyendo de la sociedad ciertos perfiles de personas que, para algunas empresas, no son adecuadas. Por ejemplo, cuestiones que la legislación prohíbe, pero que sería eliminar personas enfermas, que pudieran tener perfiles sindicales o que pongan el bien común por encima del individual. Si el algoritmo consigue excluir todo eso, la sociedad se empobrece. Es posible que esto sea positivo para la empresa de forma individual, pero no lo es para la sociedad.
- ¿Cómo la tecnología puede llevar al límite al trabajador?
- En centros logísticos de reparto de papelería se utilizan chips que se ponen en las botas y smartwachs para controlar tanto los pasos del trabajador como las pulsaciones y cuántos paquetes pone y envía al día. Además, toda esta información de los centros logísticos se le da en un ranking, por lo que el trabajador sabe que el que está último, probablemente, tiene más posibilidades de ser despedido. Con lo cual, significa que tiene que correr más, y acaba por ser una competición hasta el infinito. Esto ha terminado provocando que, estos centros logísticos, con este tipo de algoritmos, tengan el doble de accidentes de trabajo que el resto y otros que acaban tan agotados que al terminar no pueden ni coger el coche para llegar a casa y se quedan durmiendo dentro.
Otro ejemplo sería el de las kellys. El algoritmo decide cuánto tiene que tardar una trabajadora en limpiar una habitación y si tarda más de lo que el algoritmo ha decidido que debía de tardar, entonces le hace vibrar la pulsera. Esto es lo que la doctrina ha llamado el “látigo digital” porque, en el fondo, es un recordatorio de que estás siendo observado de forma constante y debes ir más rápido cada vez.
- ¿Esto también puede repercutir en los salarios? Porque cada vez el trabajador tiene menos control de su trabajo y el empresario más datos.
- Ya existen ejemplos de que, cuando se introducen estos algoritmos, la empresa a corto plazo obtiene más porque, cuando el trabajador cae enfermermo porque ha sido exprimido, es la sociedad la que asume el coste y no la compañía. Por eso, la empresa acaba ganando más beneficios, pero esto no significa que sean repartidos. Es verdad que estamos hablando de malas prácticas, y no significa que todas las empresas sean así, pero en estos casos los beneficios extra no se reparten con los trabajadores porque si éste se queja de que está trabajando más, es sustituido por otro. Y esto se debe a que hay algoritmos que reclutan trabajadores de forma muy eficiente. Esto se debe a que es el propio algoritmo el que mira el currículum.
La idea es que llevamos siete u ocho años que, cuando te dicen que subas el currículum a un formulario que tienes que rellenar, probablemente hay un algoritmo, y éste es el que decide si pasas a la siguiente fase o no. Los datos dicen que el 72% de currículums nunca son leídos por ojos humanos. Es el algoritmo el que decide si cumples con el perfil. Entonces, esto abarata los costes de selección, con lo cual es muy fácil sustituir al trabajador que se queja por otro. Por lo tanto, también va a dificultar que reciban mejoras salariales.
- ¿Esto ya ocurre en España?
- En el tema de reclutamiento sí. Las grandes empresas en España son multinacionales y vienen con ese modelo. Si bien es cierto que aquí tienen que adaptarlo a la normativa general de protección de datos, ésta está mostrándose claramente insuficiente, porque la agencia de protección de datos no tiene suficientes recursos para investigar. Ya tiene bastante con los datos de los consumidores; en materia de datos de trabajadores lo mira, pero no llega a todas partes. Con lo cual, muchas prácticas de Estados Unidos se están replicando sin cambios.
- ¿Habrá un día en el que nuestro jefe sea un algoritmo?
- El jefe puede que sea un persona, pero las decisiones ya no las está tomando él, sino un algoritmo. Por ejemplo, hay tiendas abiertas al público que, para decidir turnos, si trabajas por la mañana o por la tarde o cinco u ocho horas, lo decide un algoritmo. Porque lo que hace es calcular el nivel de ventas de ese día concreto, teniendo en cuenta el nivel del año anterior, si va a haber un partido de fútbol o un concierto, y eso te lo dice una persona, pero la inteligencia artificial es la que ha tomado la decisión. ¿Cuál es la realidad? Que no es un verdadero jefe, es un transmisor de información, por lo que ya el jefe es el algoritmo, si no cambian decisiones.
"El jefe puede que sea un persona, pero las decisiones ya no las está tomando él, sino un algoritmo"
Pero es que vamos un paso más allá. Hay algoritmos que ven con qué grupos de trabajadores funcionas mejor. Con lo cual ya no solo decide las horas de trabajo y cuándo, sino con quién. El algoritmo sabe que cierto equipo funciona mejor. Y esto no tiene por qué ser una mala práctica, pero la decisión no la toma un jefe.
- Pero es paradójico que en un escenario donde las empresas contratas perfiles para captar talento y mejorar al calidad de vida de los trabajadores, entremos en esta situación. ¿Se están polarizando los rangos laborales?
- Este es uno de los mayores retos que planteo en el libro, porque ya hace mucho que tiempo que lleva siendo estudiado, pero se dice poco y hay que ser conscientes. En la tecnología, hay una cuestión que se llama la 'gran brecha digital' que, en los últimos años y con los algoritmos mucho más, está afectando a la clase media. De hecho, hay datos que demuestran que la clase media se está reduciendo en los últimos 20 años. Tenemos gente rica, mucho más rica y gente poco cualificada con salarios mucho más bajos. Y los que están desapareciendo son los trabajos medianamente cualificados que tenían salarios medios.
Eso es un gran reto para Europa y EEUU, aquellos países que se han nutrido y vivido bien gracias al Estado del Bienestar con una gran clase media que llegaba bien a fin de mes, que tenían una cualificación y una cultura.
Eso se está polarizando, y esa polarización está provocando los grandes extremos políticos que estamos viendo, tanto el Brexit, como Trump, como la radicalización política. Hay varios informes, incluso uno del Fondo Monetario Internacional (FMI), de que esto viene precisamente por la desaparición de la clase media a causa de la gran brecha digital. Está conectada la parte económica con la parte política. En el libro, en parte señalo que esto no es una cuestión solo de trabajadores y trabajadoras, sino que es un problema político al que nos vamos a enfrentar en los próximos años.
- ¿Y hacia dónde se está yendo esa clase media?
- En general se va a la clase más baja, excepto en algunos casos, porque esto es una pirámide.
- ¿Discriminan los algoritmos?
- Actualmente, hay casos en los que ya se ha demostrado que los algoritmos discriminan a mujeres. Fueron unos periodistas los que descubrieron esta discriminación, y la empresa dijo vamos a parar, y vamos a hacer que el algoritmo no pueda leer el sexo de la persona ni tampoco la foto ni el nombre. La cuestión es que el algoritmo conseguía descubrir quiénes eran las mujeres y las discriminaba. ¿Cómo? A través de aficiones, de colleges de mujeres, de carreras más estudiadas por mujeres,... El gran reto es que, aunque tú no le des cierta información, éste la va a averiguar si considera que es relevante para su decisión final, que es que el trabajo sea productivo y encaje en la empresa.
"Hay casos en los que ya se ha demostrado que los algoritmos discriminan a mujeres"
Esto no pasa solo en tema del sexo o el género, sino en orientación política. Sabiendo tu dirección, si el barrio en el que vives vota mayoritariamente una tendencia política o no, es un dato público del censo. Con lo cuál, el algoritmo, con datos públicos, puede saber según tu dirección la probabilidad de que votes a tal partido. Y para él eso es suficiente, aunque no sea la verdad, porque al final el algoritmo funciona por estadística. Lo que quiere saber, con un nivel de confianza suficientemente alto, es que esta persona creemos que vota a determinado partido político y no lo queremos en la empresa. Ese es uno de los grandes retos, porque no es el nivel de discriminación tradicional, sino que puede aumentar y ser sistemático.
Antes, igual había jefes que discriminaban, pero lo hacían para un centro de trabajo determinado. Pero tú pedías para otro dentro de la misma empresa y no ocurría, porque el responsable tenía otro sesgo. Entonces, dentro de lo que cabe, te podían discriminar, pero acababas encontrando trabajo. Sin embargo, esto va a ser una discriminación sistemática aplicada a la empresa y puede que a todas las empresas, porque los algoritmos serán parecidos en todas las compañías. Y esto es un reto.
- ¿Puede ser el algoritmo el peor jefe de la historia? ¿Se pierde toda la humanización?
- Ese es otro de los retos, en cuanto a la pérdida de poder tener tu personalidad propia. Porque si no encaja con lo que buscan los algoritmos, a no ser que pongamos límites a este tipo de cosas, es posible que las personas con una personalidad distinta no encuentren trabajo. O que encuentren trabajos peores o de peor condición. Es un reto la uniformidad. Que acabemos por ser todos iguales, que nos acabemos convirtiendo en robots.
- Un algoritmo comercializado a muchas empresas podría suponer que una parte de la población al completo quedara fuera del mercado de trabajo si se comercializara de forma masiva. Esto podría derivar en un problema social aún más grave.
- Por suerte en Europa tenemos Derechos Fundamentales, tenemos carta europea, lo que hay que hacer es hacerlo efectivo. Porque no se puede discriminar por género, no se puede discriminar por ideología. El problema es que los algoritmos lo hacen de manera oscura. Es muy difícil saber si un algoritmo está discriminando o no, porque no sabemos por qué toma la decisión. ¿Qué necesitamos? Mayor trasparencia y auditabilidad de los algoritmos. No soy partidario de que todos los algoritmos sean auditados, pero cuando se encuentre un indicio de discriminación por razón de género o ideología, para evitar que pase esto, bien el Estado o algunas empresas especializadas e independientes deberían auditar el algoritmo que tiene ‘indicios de’ y descubrir si esto pasa. Porque saber si toma la decisión es muy difícil. Son las cajas negras de los algoritmos. Pero sí sabemos los resultados. Si una empresa solo contrata hombres, auditando el resultado sabemos que ese algoritmo está funcionando mal y habrá que revisarlo y darle otras instrucciones para que deje de hacerlo.
- ¿Hay sectores más vulnerables?
- Los trabajos que más se van a ver afectados son los medianamente cualificados con salarios medios junto a los muy bajamente cualificados como call centers, kellys, repartidores, centros logísticos, pero no van a ser los únicos. No obstante, lo altamente cualificados también se van a ver alterados. Hay casos en Estados Unidos de hospitales que funcionan como centros logísticos. Se le dice al enfermero o a la enfermera al principio del día lo que tiene que hacer y el algoritmo calcula lo que tarda. Si es más de lo que considera que es óptimo, entonces el supervisor recibe un aviso de que ésta persona está más tiempo del que debería realizando una tarea y te dice que vayas más rápido.
Y es posible que el profesional lo haya hecho por una cuestión de pura empatía. Porque el paciente ha dormido mal, le ha tenido que explicar la medicación y es posible que el supervisor lo entienda. Pero el algoritmo ha dicho que tiene que tardar menos y a él también le miden por los resultados de sus trabajadores. Por lo tanto, es posible que siendo todos empáticos no puedan actuar de esa forma.
- ¿Por dónde debería avanzar la regulación?
- Creo que hay que empezar a distinguir entre los algoritmos productivos y los que pueden estar usándose en malas prácticas y puedan quitar la humanidad, la empatía, que puedan ocasionar accidentes de trabajo o discriminación. Son algoritmos que habría que regular. Luego, la UE y EEUU se están centrando mucho en la tecnología y si hacemos una revisión histórica, donde hay que enfocarse es en aumentar el poder de negociación de los trabajadores. Por ejemplo, en el caso de las cadenas de montaje, hemos visto todos en ‘Tiempos Modernos’ que, efectivamente, era deshumanizante.
"Se está cometiendo el error centrándose en regular la tecnología, que es difícil de controlar"
Pero no se reguló la tecnología, se permitieron sindicatos, huelgas y mejorar el poder de negociación de los trabajadores. La tecnología no se cambió, pero las condiciones de los trabajadores mejoraron. Pero se está cometiendo el error centrándose en regular la tecnología, que es difícil de controlar, y poco en los efectos de la misma. Que la tecnología sea la que la empresa crea que tiene que ser, pero que no pueda provocar accidentes de trabajo o discriminaciones. Garanticemos que los efectos no sean negativos.
- ¿Deberían poder los sindicatos opinar sobre el funcionamiento de los algoritmos implicados en el seguimiento y análisis de los trabajadores?
- La ley rider española es pionera en Europa en dar información y transparencia a los comités de empresa. Pero solo es información, no es negociación ni una obligación de regulación conjunta. El siguiente paso sería una negociación conjunta de la introducción de tecnología en la empresa.
- ¿Y eso cómo se podría plantear?
- Darle a los sindicatos el contenido del algoritmo no va a servir, porque todos no pueden ser informáticos. Pero yo lo comparo históricamente. El jefe asignaba un turno de sábado por la mañana, el porqué lo hacía no podía saberlo, porque no podía entrar en su cabeza. Es el símil del código. Pero sí podía decir que no era justo que una misma persona trabajara cuatro sábados seguidos. No es una cuestión de negociar la tecnología, sino los resultado. Tengo que hacer diez zapatos cuando antes hacía cuatro, el algoritmo me está aumentando el trabajo y me da dolores de espalda. O me subes el sueldo o me bajas el ritmo. Luego habrá que ver cómo se hace, con topes o límites. Pero aquí negociamos, porque al final hay accidentes, acabo cansado o no tengo vida social porque mi mente acaba nula trabajando a este ritmo. Se puede negociar el resultado de las decisiones que toma el algoritmo.
- ¿Habría que cambiar la legislación?
- En el pacto de Gobierno se anunció un nuevo Estatuto de los trabajadores. Esto va a tener que tener en cuenta las nuevas tecnologías. Se puede regular las obligaciones de negociar a la hora de introducir tecnologías y los resultados que provoca. A veces, el trabajador no tiene problema en hacer diez zapatos, pero acabo más cansado y cobro lo mismo. Por lo tanto, negociemos los beneficios. Mayor salario, reducción de jornada,... Y eso al final es que lo decidan los trabajadores y empresarios en la negociación colectiva.
-¿Se puede replantear el uso de la IA en la selección de personal?
- Es complicado porque la recolección de datos se está haciendo muy barata. Esto ya pasó en el siglo XIX, la obsesión por el cienticifismo, estamos volviendo a ello. Si tienes un martillo solo ves el clavo. Como tienes los datos muy fácil a tu alcance, justificas todo con los datos. Y al final dices que es lo más objetivo, y nos autojustificamos con que hay que usarlos. Pero al final los algoritmos se equivocan. Es difícil cambiar esto y la orientación de la regulación es lo que nos tiene que guiar a no perder esa humanidad.
- ¿Quién ostenta la responsabilidad del fallo de un algoritmo?
- La regulación es bastante clara en que es quien lo usa quien tiene la responsabilidad, ni siquiera el que lo fabrica.
- ¿Cómo avanzar con la innovación sin entorpecer el Estado de Bienestar?
- Es importante tener claro que la innovación no es una restricción para las empresas, sino que es una justicia para que todas las empresas funcionen igual. Si hay algunas pocas empresas que hacen malas prácticas, afecta a la reputación de todos los empresarios y de la propia tecnología y pone a la defensiva a todos los trabajadores. Tenemos una visión muy negativa de la regulación, pero históricamente se ha utilizado en beneficio de las empresas y de los trabajadores, y del uso de la tecnología. El libro lo termino hablando de dos economistas, que son los que más han trabajado esto, uno de Oxford y otro del MIT, que siendo rivales economistas respecto a las tesis, llegan a la misma conclusión.
Actualmente, si no repartimos mejor los beneficios de la tecnología, podemos volver a una ola ludista. Que la gente vote en contra de la tecnología, Que sus votos sean para aquellos gobiernos que dicen que no van a invertir en investigación, y esto me ha recordado a los movimientos antivacunas. La gente que ve que un algoritmo ha provocado que acabe en la calle, o quien trabajaba de comercial tranquilamente y ahora le ponen un GPS y hasta le controlan cuando va al baño. Esta gente acaba siendo anti-tecnológica por unas pocas malas prácticas, porque la mayoría de gente no lo hace así. Acaban votando a partidos radicales, que lo que quieren es acabar con la tecnología, la ciencia y lo que no entendemos. Si no repartimos mejor los beneficios de la tecnología, acabaremos en movimientos anti-tecnología, y eso es un problema para toda la sociedad porque la tecnología es muy positiva.