El profesor Óscar Molina coordina el proyecto INCODING

Codi de programació en una pantalla

El pasado día 1 de diciembre tuvo lugar un seminario de difusión de resultados del proyecto INCODING, coordinado por el profesor Óscar Molina, financiado por la Unión Europea.

21/12/2023

El pasado día 1 de diciembre tuvo lugar un seminario de difusión de resultados del proyecto INCODING (Democracy at Work through Transparent and Inclusive Algorithmic Management, incoding-project.eu), financiado por la Unión Europea. En el seminario participaron expertos y agentes sociales y se presentaron los resultados de la investigación que se ha llevado a cabo en el contexto de este proyecto. En el proyecto INCODING, coordinado por el profesor Óscar Molina participan otras cuatro instituciones de Austria (ZSI, Centro for Social Innovation), Dinamarca (FAOS, Employment Relations Research Centre, University of Copenhagen), Alemania (WZB, Berlín Social Science Center) y Hungría (TK SZI, Centro for Social Sciences, Hungarian Academy of Sciences Centre of Excellence).

El objetivo del proyecto INCODING es analizar el papel de la negociación colectiva y otras formas de participación de las personas trabajadoras en el puesto de trabajo (lo que llamamos democracia industrial) en la (co) gobernanza de la caja negra de la gestión algorítmica para identificar los principales retos para los trabajadores y sus representantes, y explorar su contribución a una gestión algorítmica inclusiva entendida como el giro hacia una mayor transparencia en el diseño e implementación de sistemas basados en inteligencia artificial en el ámbito de empresa y garantizando la supervisión de procesos automatizados.

En el contexto de la datificación de los entornos de trabajo, las nuevas tecnologías como algoritmos y la inteligencia artificial han abierto nuevas posibilidades para la gestión de la mano de obra. Sus posibilidades de recopilar, combinar y utilizar datos sobre el puesto de trabajo y las personas trabajadoras para un número cada vez mayor de procesos y decisiones, están alterando el panorama de las relaciones laborales de muchas formas. El uso para decisiones y procesos que van desde la contratación, organización del trabajo, evaluación e incluso el despido está cada vez más extendido. A pesar de su promesa en términos de optimización, al mismo tiempo, existe un creciente debate público preocupado por su impacto en la voz, la influencia y las condiciones de trabajo. Una característica importante de estas "cajas negras" es su falta de transparencia y su funcionamiento semiautónomo, lo que pone en peligro las formas tradicionales de participación colectiva de los trabajadores, la transparencia o incluso la normativa de protección de datos . Por tanto, el proyecto tiene como objetivo comprender la forma en que la inteligencia artificial está erosionando las instituciones de democracia industrial e impactante en los puestos de trabajo.

La investigación ha tenido varias fases, siendo una de ellas el análisis de dos casos de estudio de empresas en relación con el uso de algoritmos y la participación de los trabajadores. Los casos analizados corresponden a empresas de diferentes sectores y que aplican de forma diversa algoritmos. En el sector industrial, se ha analizado a una empresa pionera en la introducción de nuevas tecnologías en el proceso productivo. El análisis muestra cómo el uso de algoritmos en esta empresa parece ser invisible a los trabajadores, que no perciben riesgos derivados de la creciente datificación de su actividad. El control de tiempo característico de los modelos tayloristas de producción permanece, pero con el uso de nuevas tecnologías aumenta la precisión y cantidad de datos acumulados por la empresa.

El otro caso analizado se caracteriza por estar cercano al modelo ideal de gestión algorítmica integral, en la que la gran mayoría de actividades están bajo la supervisión y control del algoritmo. En relación al caso industrial, donde hay poca conciencia del uso de algoritmos y sus riesgos, en el caso de la plataforma de reparto a domicilio existe por parte de los trabajadores una fuerte sensibilidad en relación al algoritmo y las implicaciones de éste. De hecho, podemos hablar de adaptación al algoritmo, en línea con los procesos de gamificación que son cada vez más frecuentes en este tipo de empresas.

Los resultados del análisis invitan, en primer lugar, a realizar una lectura crítica del impacto que la llamada Ley Rider ha tenido en relación con el principio de transparencia o democracia algorítmica. Esta ley establece el derecho a acceder al algoritmo por parte de la representación de los trabajadores. Sin embargo, tal y como muestran los casos analizados, el ejercicio de este derecho se encuentra con varios problemas que van desde la falta de capacidad técnica por parte de la representación de los trabajadores para entender y descifrar el algoritmo, hasta las dificultades de la misma empresa para proveer el acceso, puesto que en muchos casos el algoritmo utilizado se subcontrata a una empresa especializada externa.

En segundo lugar, los resultados del proyecto apuntan a la necesidad de sensibilizar a los trabajadores sobre el uso de algoritmos y herramientas de inteligencia artificial por las empresas. No sólo el algoritmo constituye una caja negra sobre la que existe un total desconocimiento sobre qué parámetros utiliza y en qué tipo de decisiones se aplica. Si no que un problema anterior a éste es el de la invisibilidad (ciertamente perseguida en muchos casos por las empresas) de estas herramientas. Así, el uso de algoritmos no sólo puede provocar una erosión de la democracia industrial, sino que implica la adopción de técnicas de gestión y organización del trabajo que aumentan el control e intensifican el trabajo. Para hacer frente a estos riesgos, es necesario garantizar el acceso efectivo al algoritmo por parte de la representación de los trabajadores y generalizar su regulación a través de la negociación colectiva.