<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=621166132074194&amp;ev=PageView&amp;noscript=1">
sábado. 07.06.2025
TRIBUNA LABORAL

“Los algoritmos no andan solos por la calle”

algoritmo_laboral

Necesitamos tu ayuda para seguir informando
Colabora con Nuevatribuna

 

El pasado febrero, Yolanda Díaz, ministra de Trabajo y Economía Social, con ocasión de su viaje a Estados Unidos firmó con Julie Su, secretaria de Trabajo de la istración de Joe Biden, una declaración sobre transparencia algorítmica en el ámbito laboral. Durante el acto, Díaz pronunció una sencilla frase que desató burlas por parte de ciertos sectores mediáticos y políticos de la derecha: Los algoritmos no andan solos por la calle”. 

¿Qué quiso decir con esta afirmación la ministra? Señaló simplemente una verdad que parece incomodar a algunos “listos”: los algoritmos no son entes autónomos ni neutrales. Están diseñados por personas, responden a intereses específicos y, con demasiada frecuencia, reproducen sesgos e ideologías que afectan directamente a quienes pueden sufrir su aplicación en el ámbito laboral.

Los algoritmos, lejos de ser imparciales, perpetúan en muchas ocasiones desigualdades y precarizan el empleo

La experiencia en los centros de trabajo demuestra que los algoritmos, lejos de ser imparciales, perpetúan en muchas ocasiones desigualdades y precarizan el empleo. Hoy en día estas tecnologías pueden ser esenciales en procesos como la selección de personal, la evaluación del desempeño, la planificación de turnos y la automatización de tareas. Aunque prometen eficiencia, muchas veces lo hacen a costa de la equidad y los derechos de los trabajadores, y no siempre producen la eficiencia prometida.

En numerosos casos las empresas emplean herramientas que recopilan datos de forma cada vez más invasiva. Estas tecnologías monitorizan actividades laborales, geolocalización incluso las interacciones entre empleados o las pulsaciones de teclas en un ordenador. Peor aún, a menudo complementan esta información con datos externos, como redes sociales, historiales crediticios o patrones de consumo.

Este nivel de vigilancia no solo difumina los límites entre la vida personal y profesional, sino que crea un entorno opresivo en el que los trabajadores están constantemente supervisados. Las decisiones basadas en estas tecnologías, como despidos o promociones, se toman a menudo ignorando el contexto y reduciendo las personas a meras cifras en un tablero de control.

El abuso y mal uso de las tecnologías no solo amenaza las condiciones laborales sino también derechos constitucionales

El abuso y mal uso de estas tecnologías no solo amenaza las condiciones laborales sino también derechos constitucionales básicos: la privacidad (art. 18.1 CE), la protección de datos (art. 18.4 CE), la igualdad y no discriminación (art. 14 CE), y la seguridad y salud en el trabajo (art. 15 CE).

Por eso no es una exageración ni una “charlotada” afirmar que los algoritmos no son neutrales ni autónomos, y que “no andan solos”. Reflejan las intenciones de quienes los diseñan y aplican, y, sin regulaciones claras, pueden convertirse en herramientas de abuso. La transparencia en el uso de estas tecnologías y la protección de los derechos de los trabajadores son más necesarias que nunca.

Ejemplos positivos son el Convenio General de la Industria Química firmado por la patronal FEIQUE y CCOO o el Convenio Colectivo  de la Banca porque contemplan medidas pioneras sobre transparencia en relación a la Inteligencia Artificial y con ello la algorítmica.  Ahora este avance deberían aplicarse con rigor en los centros de trabajo de estos dos sectores  y extenderse al resto de sectores.

No se trata de obstaculizar la innovación, sino de garantizar que los avances tecnológicos se utilicen para mejorar las condiciones laborales, fomentar la equidad y construir entornos más justos. Para ello la negociación colectiva debe evolucionar para incluir la defensa de los derechos tecnológicos de los trabajadores y trabajadoras. Esto implica exigir transparencia en la recopilación y uso de datos, establecer límites al monitoreo y garantizar la participación activa de los empleados y sus organizaciones, los sindicatos en decisiones sobre la implementación de estas herramientas.

Los gobiernos tienen la responsabilidad de aprobar marcos normativos que garanticen que el uso de algoritmos respete los derechos laborales y constitucionales

Asimismo, los gobiernos tienen la responsabilidad de aprobar marcos normativos que regulen la recopilación de datos y garanticen que el uso de algoritmos respete los derechos laborales y constitucionales. Medidas como la transparencia, la prohibición de herramientas discriminatorias y la creación de entornos laborales más equilibrados no han de ser opcionales por parte empresarial: son una necesidad para evitar que la tecnología deshumanice aún más el trabajo.

El desafío actual es decidir si la tecnología será un instrumento que agrave las desigualdades sociales y deshumanice el trabajo o si, por el contrario, se convertirá en una herramienta para dignificar la vida laboral.

La respuesta a este dilema dependerá de las decisiones políticas, sociales, sindicales  y empresariales que se tomen hoy. Garantizar un futuro donde la tecnología contribuya a un trabajo más justo y humano no es solo deseable, sino indispensable para construir una sociedad más equitativa.

¿Será posible evitar que los algoritmos se conviertan en instrumentos de opresión laboral y desigualdad? La tecnología, como cualquier herramienta, no es neutral: puede servir para oprimir o para liberar. Es responsabilidad de todos los actores implicados asegurarse de que esté al servicio de la dignidad humana y no en su contra.


Artículo publicado en el blog de Quim

“Los algoritmos no andan solos por la calle”