Alicante

¿Qué controla la inteligencia artificial mediante algoritmos de nuestra vida laboral? el avance que permiten representa muchas mejoras en el día a día y también un riesgo. Así lo ve una investigación valenciana que analiza los peligros específicos causados por estos códigos para la salud de los trabajadores.

La intensificación del trabajo causada por las decisiones tomadas por programas, la monitorización y el sentirse observado son ejemplos de estos problemas que recoge Adrián Todolí. El profesor de Derecho del Trabajo de la Universitat de València (UV) incluye también entre ellos la discriminación a pesar de la aparente neutralidad algorítmica o posibles errores de funcionamiento.

Todolí propone en su estudio una normativa específica europea en protección de estos riesgos laborales, según informa la UV mediante un comunicado que recoge Efe. Una labor que cobra más peso cuanto mayor es la presencia de las técnicas de inteligencia artificial en el sistema.

El estudio, publicado en la revista internacional de Economía y Derecho Transfer, señala los riesgos específicos para la salud de las plantillas ya que, como especifica el docente, los nuevos métodos de IA carecen de "empatía ni conocimiento de los límites del ser humano".

Los riesgos

En esta línea, en la investigación se enumeran hasta seis grupos de riesgos con sus posibles consecuencias. Un ejemplo es la constante monitorización, lo que puede causar efectos negativos psicológicamente como sentirse siempre observado o invadido por la tecnología.

Los posibles errores de funcionamiento de los algoritmos son uno de los factores que resalta como generadores de problemas en cuanto a estrés y ansiedad. Además, otros riesgos que el artículo pone de manifiesto son la reducción de la autonomía de la persona o la intensificación del trabajo ante la falta de empatía humana. A esto se añaden los sesgos causados por los algoritmos que, aunque a priori pasan el filtro de la neutralidad, el estudio demuestra que no lo superan.

Tal y como ejemplifica Todolí, "para seleccionar a un candidato de un grupo minoritario, un algoritmo de contratación exigirá por defecto más cualidades, aptitudes o conocimientos que los requeridos a un integrante de un grupo mayoritario, simplemente porque es más fácil predecir estadísticamente el comportamiento de un candidato perteneciente a este último grupo".

Regulación

El profesor defiende la necesidad de una regulación específica en Europa para proteger la salud del personal gestionado por IA, ya que "muchos pueden reducirse o evitarse si se tienen en cuenta a la hora de programar un algoritmo".

"Una nueva normativa de este tipo debe estipular que dicha programación tenga en cuenta estos riesgos laborales y de salud, entre ellos el derecho a la intimidad. De la misma manera que los supervisores tienen que recibir formación en materia de prevención de riesgos para poder realizar su trabajo, el algoritmo también debe estar programado para sopesarlos", concreta Todolí.

Es más, la investigación precisa que la IA debe estar bajo el control humano y aboga por una normativa concreta sobre la seguridad de los algoritmos. "Esto enviaría un mensaje sobre la importancia de los riesgos específicos. Por el contrario, si la Unión Europea no considera oportuno adoptar una nueva normativa en este ámbito concreto, se podría trasladar el mensaje contrario y plasmar que los algoritmos no provocan riesgos para la salud, cuando no es así", sentencia el experto.

En esta línea, el docente también hace mención de la relación del artículo con la reciente aprobación de la Agencia Estatal de Supervisión de la Inteligencia Artificial y control de los algoritmos en España, incluida en los Presupuestos Estatales para 2022.

Noticias relacionadas