Carpeta de justicia

LawAndTrends



Helena Monzón

El 21 de abril de 2021 la Comisión Europea ha hecho pública su Propuesta para armonizar las reglas sobre la utilización de Inteligencia Artificial en Europa –“Artificial Intelligence Act- (la “Propuesta”) y sus Anexos, cuestión que requeriría un futuro reglamento específico.

Dicha Propuesta incluye entre otros aspectos, una regulación del uso de la Inteligencia Artificial (la “IA”) en el trabajo, que resultan especialmente merecedoras de atención y control.  

A este respecto, resulta especialmente significativo que en la Propuesta se establezca que los sistemas de IA en el trabajo son considerados de “Alto Riesgo” (High Risk) por sus posibles efectos apreciables en la futura empleabilidad y subsistencia de las personas cuando se utilizan para:

  • La gestión de personas con una relación laboral, o para acceder a ella, también respecto a trabajadores autónomos, particularmente para la selección de personas;
  • La toma de decisiones respecto a su promoción o a la extinción de su contrato o para el reparto de tareas;
  • La monitorización o evaluación de personas sujetas a una relación laboral.

Y es que la Propuesta tiene su origen en lo acontecido en los últimos años en relación con los sistemas tecnológicos utilizados principalmente para reclutar, evaluar y motorizar a las plantillas. En este sentido, más allá de las preocupaciones en materia de privacidad y protección de datos personales, existe un fundado temor por parte del regulador sobre los posibles efectos que los sesgos existentes en dichas tecnologías puedan tener en materia de discriminación (por razón de género, edad, discapacidad, religión, raza u orientación sexual). 

En Europa ya hemos tenido oportunidad de ver discriminaciones indirectas como consecuencia del uso de algoritmos en relaciones con riders, como desveló la reciente sentencia del Tribunale Ordinario di Bologna, de 31 de diciembre de 2020. En dicha resolución, el Tribunal italiano consideró que se había acreditado la existencia de una discriminación indirecta hacia los riders demandantes, al haberse evidenciado que la plataforma puntuaba de la misma forma a quien faltaba voluntariamente que a quien faltaba por una situación protegida legalmente, como era en ese caso la actividad sindical. En concreto, su llamada “tasa de fiabilidad” se veía afectada, penalizando a los riders que realizaban actividades sindicales con la pérdida del acceso a los mejores horarios, esto es, los mejor remunerados, con motivo de la asignación de tareas realizada por el algoritmo de la plataforma en función de la puntuación registrada.

 

Lo cierto es que la discriminación indirecta no es un concepto que haya nacido como consecuencia del uso de la tecnología, sino que ha tenido un recorrido previo e independiente a la misma, habiendo sido reconocida tanto a nivel jurisprudencial como normativo. No obstante, su aplicación a los sesgos algorítmicos y sus consecuencias laborales tienen por delante un largo camino por recorrer.

Por otro lado, además de los sesgos implícitos que pueda haber en materia de IA para el ámbito laboral, es claro que las nuevas formas de seleccionar al personal mediante algoritmos o, incluso, de determinar las condiciones laborales (horarios, salario, promociones, etc.), entrelazan con derechos fundamentales de las personas trabajadoras como son la protección de datos y la privacidad, e incluso pueden llegar a chocar con algunos aspectos esenciales de la propia naturaleza de la relación laboral por cuenta ajena, como es la sustitución del empresario en el ejercicio de parte de sus funciones, por ejemplo, el dictar instrucciones y órdenes en su ámbito de dirección.

Según la propuesta normativa de la Comisión Europea, cuando las tecnologías utilizadas en el trabajo sean consideradas de “Alto Riesgo”, ello supondrá la obligación de que estas pasen ciertos controles por parte de las autoridades correspondientes antes de su aplicación en el trabajo. Sin embargo, la Propuesta no se pronuncia respecto a los requisitos que debe cumplir la implementación de estas tecnologías en cada empresa, una omisión importante por cuanto olvida mencionar el análisis de proporcionalidad de la tecnología utilizada, en relación con la afectación de los derechos fundamentales de las personas trabajadoras.

A la vista de lo anterior, teniendo presente el recorrido que aún tendrá que hacer la Propuesta a nivel institucional dentro de la UE antes de plasmarse en una normativa aplicable, no queda más que asumir las conclusiones contenidas en los documentos de trabajo de la propia Comisión e interpretarlos en nuestro ámbito normativo local.

Esto es, mientras no exista normativa específica, tenemos que seguir analizando las implicaciones laborales de estas tecnologías al amparo de la Ley de Infracciones y Sanciones del Orden Social y de la jurisprudencia aplicable en cada caso. Al mismo tiempo, debemos destacar la posibilidad de negociar a nivel colectivo el uso de la IA en el trabajo, incluso la de “Alto Riesgo”, siendo esta quizá una de las alternativas que podría ofrecer mayores garantías a las empresas que se planteen utilizar estas tecnologías en este momento, sirva de ejemplo el XXIV Convenio Colectivo del Sector de la Banca, como muestra de los primeros pasos en la regulación cohesionada de los derechos digitales de los trabajadores, en particular frente a la IA.

 

lawandtrends.com




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad