El documento tardará unos segundos en cargarse. Espere, por favor.
La Ley logo
Algoritmos e Inteligencia Artificial ...

Algoritmos e Inteligencia Artificial en el entorno laboral

Ingrid González y Mireia Paricio Zaragozá

Abogadas del área de Tecnología, Innovación y Economía Digital CECA Magán

Capital Humano, Nº 370, Sección Relaciones laborales y prevención / Artículos, Diciembre 2021, Wolters Kluwer

En entorno laboral no es ajeno al uso de los algoritmos y de la inteligencia artificial, no obstante entraña riesgos ya que dichos sistemas pueden perpetuar patrones históricos de discriminación.

Estamos asistiendo a una práctica cada vez más extendida en el empleo de productos o servicios que implementan el uso de algoritmos. Cuando hablamos de algoritmos, debemos entenderlos como la esencia de cualquier sistema de inteligencia artificial (IA).

Los algoritmos se entrenan y mejoran con la aportación de datos, lo que desemboca en un mayor conocimiento y, por tanto, en lo que denominamos Inteligencia Artificial, es decir, sistemas que manifiestan un comportamiento inteligente, al ser capaces de analizar el entorno y realizar acciones, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos.

Como resulta obvio, el entorno laboral no es ajeno al uso de los algoritmos y de la inteligencia artificial. Si bien, entraña riesgos y es que, dichos sistemas pueden perpetuar patrones históricos de discriminación, por ejemplo, contra las mujeres, ciertos grupos de edad, personas con discapacidad o personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada, durante todo el proceso de contratación y en la evaluación, la promoción o la retención de personas en relaciones contractuales de índole laboral. Los sistemas de IA empleados para controlar el rendimiento y el comportamiento de estas personas también pueden afectar a sus derechos a la protección de los datos personales y a la privacidad.

No podemos ignorar la incidencia de las nuevas tecnologías en el ámbito laboral y la necesidad de que la legislación laboral tenga en cuenta esta repercusión tanto en los derechos colectivos e individuales de las personas trabajadoras, como en la competencia entre las empresas.

¿EN QUÉ PUNTO NOS ENCONTRAMOS?

El pasado 30 de septiembre de 2021, entró en vigor la Ley 12/2021, de 28 de septiembre, por la que se modifica el Estatuto de los Trabajadores, con la finalidad de garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de las plataformas digitales.

Lo interesante de esta Ley, es que viene a regular el uso del algoritmo en este sector, en tanto, es un algoritmo el que asigna los pedidos de forma automática, bajo el criterio de coste-beneficio, encontrando la mejor combinación posible pedido-repartidor, con el objeto de minimizar la suma de costes.

Esta norma incluye, por primera vez en la normativa laboral, los derechos de información y consulta de la representación legal de personas trabajadoras en cuanto a los parámetros, reglas e instrucciones en los que se basan los algoritmoso sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles.

Ciertamente, el Estatuto de los Trabajadores contempla la posibilidad de que el empresario, por relación con la facultad de monitorización y/o control de la actividad laboral, pueda adoptar las medidas que estime más oportunas de vigilancia y control para verificar el cumplimiento por el trabajador de sus obligaciones y deberes laborales, incluyendo el uso de algoritmos e inteligencia artificial. La problemática deriva, al entender que estas prácticas entrañan grandes riesgos desde diversas ópticas, una de ella, es la de la protección de datos personales de los trabajadores y la posible aparición de sesgos discriminatorios derivados del conocimiento de la inteligencia artificial. Por estos y otros motivos, los agentes sociales están reclamando una «ley de justicia algorítmica en las relaciones laborales» (1) , que regule el uso de estos sistemas y sus garantías.

¿HACIA DÓNDE NOS DIRIGIMOS?

En estos momentos, en Europa se debate la propuesta del Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial, comúnmente conocida, como la Ley de Inteligencia Artificial.

Como se ha venido destacando, no es un secreto, que algunas empresas, utilizan sistemas de inteligencia artificial en la toma de decisiones relacionadas con el empleo, como, por ejemplo, para la gestión de los trabajadores, la selección de personal, la promoción y/o la rescisión de contratos, así como, en la asignación de tareas y el seguimiento o la evaluación del personal, entre otras. Estas prácticas, en el Reglamento tiene la consideración de «alto riesgo».

¿Por qué se define al uso de la Inteligencia Artificial como de «alto riesgo» en el entorno laboral? Porque puede afectar de un modo considerable a las futuras perspectivas laborales y, por ende, a los medios de subsistencia de estas personas. Por ello, el Reglamento protege la defensa de los trabajadores a unas condiciones de trabajo justas y equitativas, estableciendo una serie de medidas que impliquen la reducción del riesgo al mínimo en la toma de decisiones asistidas por Inteligencia Artificial que puedan resultar erróneas o sesgadas.

¿Ello supone que se no podrá utilizar la IA para estos fines? No necesariamente, dichos sistemas de inteligencia artificial de alto riesgo estarán permitidos en el mercado europeo siempre que cumplan determinados requisitos obligatorios y sean sometidos a una evaluación de la conformidad ex ante.

En el caso de los sistemas de IA de alto riesgo, será necesario que los proveedores de estos servicios implementen una serie de requisitos que reduzcan el riesgo, tales como: utilizar datos de alta calidad; contar con la documentación y la trazabilidad suficiente de todas las operaciones; aplicar los principios de transparencia, así como de precisión y solidez, añadiendo la necesidad de que exista siempre vigilancia humana.

Asimismo, las empresas podrían introducir códigos de conducta para el uso de sistemas de IA de forma voluntaria.

Será la Comisión Europea la encargada de establecer un sistema destinado a registrar aplicaciones de IA de alto riesgo independientes en una base de datos pública para toda la UE. Este registro también permitirá que las autoridades competentes, los usuarios y otras personas interesadas verifiquen si un sistema de IA de alto riesgo cumple los requisitos previamente indicados y, de esta forma, puedan ejercer una vigilancia reforzada de aquellos sistemas de IA que entrañan un alto riesgo para los derechos fundamentales.

¿QUÉ TENER EN CUENTA PARA USAR LA IA EN RELACIÓN A LOS TRABAJADORES?

  • Ponderar la utilidad, necesidad y carácter proporcionado del sistema (juicio de proporcionalidad): Debe analizarse y ponderarse si la medida resulta idónea, necesaria y proporcionada para el fin perseguido y, en particular, si en el caso concreto, es posible adoptar medidas menos invasivas para los derechos fundamentales de la persona como la intimidad o la protección de datos personales.
  • Valorar la base legal aplicable en cada ciclo de vida de una solución de IA: En el caso concreto de trabajadores, ello podría venir respaldado tanto por el art. 20.3 del Estatuto de los Trabajadores en relación con el cumplimiento de la relación jurídica laboral o el interés legítimo del empresario; evitándose el consentimiento (por el desequilibrio entre la empresa y el trabajador).
  • Evaluación de los riesgos legales y éticos asociados: deberán adoptarse las medidas y garantías necesarias para garantizar el derecho a la protección de datos, entre ellas:
    • Evaluar y documentar los riesgos que concurran, lo que puede suponer la realización de una Evaluación de Impacto en Protección de Datos (en particular, por el perfilado o monitorización de los trabajadores y la toma de decisiones automatizadas o que contribuyan en gran medida a tales decisiones).
    • Informar convenientemente a los afectados y representantes legales (transparencia y, en particular, respecto a la lógica aplicada y la importancia y las consecuencias previstas).
    • Establecer mecanismos para el ejercicio de los derechos por parte de los trabajadores afectados.
    • Garantizar la seguridad de los datos, teniendo en cuenta los riesgos particulares en este ámbito (entre ellos, el acceso y manipulación de datos de entrenamiento, o los fraudes o engaños a la IA por parte de los interesados).
(1)

En este sentido, UGT a través del documento denominado «Las decisiones algorítmicas en las relaciones laborales.»

Ver Texto
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioWolters Kluwer no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar