lawandtrends.com

LawAndTrends



El uso de algoritmos o sistemas de inteligencia artificial para la toma de decisiones automatizadas puede poner en peligro los derechos fundamentales de los trabajadores. Por esta razón, es obligación de las empresas informar cuando utilizan estos sistemas.

Principales riesgos

Los riesgos principales incluyen:

  • Privacidad.

  • Protección de datos personales.

  • Igualdad y no discriminación.

  • Seguridad y salud laboral.

La protección de datos personales ante el uso de la inteligencia artificial resulta esencial para garantizar la privacidad y la seguridad de los individuos en un entorno laboral y tecnológico. (ET art.64.4. d; RGPD art.13.2.f), 14.2.g), 15.1.h) y 22 y L 15/2022 art.23.3 y 4). Se trata de un derecho fundamental reconocido en el artículo 8 de la Carta de los Derechos Fundamentales de la Unión Europea y en el artículo 16 del Tratado de Funcionamiento de la Unión Europea. Este derecho está desarrollado en el Reglamento 619/2016 del Parlamento Europeo y del Consejo (RGPD) y complementado por la Ley Orgánica 3/2018 (LOPDGDD), junto con la normativa sectorial relacionada.

Promoción de la Inteligencia Artificial Ética

Ante este escenario, las empresas deben promover el uso de una inteligencia artificial ética, confiable y respetuosa con los derechos fundamentales. Por ejemplo, si una empresa utiliza inteligencia artificial para recopilar datos de los usuarios y personalizar las opciones de compra en su página web, una medida importante sería permitir que los usuarios tengan control sobre sus datos. Esto se puede lograr mediante opciones de consentimiento claras y la posibilidad de gestionar sus preferencias de privacidad.

Sello de Calidad para los Algoritmos

Además, el Ministerio de Asuntos Económicos y Transformación Digital prevé la promoción de un sello de calidad para los algoritmos. Este sello sería una certificación otorgada a los algoritmos de IA que cumplan con ciertos estándares de calidad, ética y seguridad, garantizando así que se desarrollen y utilicen de manera responsable y transparente.

Así mismo, la Agencia Española de Protección de Datos (AEPD) ha creado una guía que aborda estos temas. Las decisiones automatizadas pueden predecir cómo evolucionará una persona, evaluar su estado actual o decidir qué acciones se deben tomar (Por ejemplo, evaluando el trabajo de un empleado y su rendimiento, la IA podría decidir si promociona o no). En este contexto, la inteligencia artificial puede desempeñar dos roles distintos:

  • Servir de apoyo en el proceso de decisión, dejando la decisión final a un ser humano.

  • Asumir la toma y ejecución de la decisión de manera autónoma.

Ética de la Inteligencia Artificial

En consecuencia, la ética de la inteligencia artificial busca proteger valores como la dignidad, la libertad, la democracia, la igualdad, la autonomía individual y la justicia frente al control de un razonamiento mecánico. La Comisión Europea trabaja en definir una inteligencia artificial confiable, estableciendo que debe cumplir con siete requisitos clave:

  1. Supervisión y control humanos.

  2. Solidez técnica y seguridad.

  3. Gestión de la privacidad y protección de datos.

  4. Transparencia y diversidad.

  5. No discriminación y equidad.

  6. Bienestar social y ambiental.

  7. Rendición de cuentas.

Normas del RGPD para el Tratamiento de Datos

Para asegurar que el tratamiento de datos cumple con las normas, el RGPD ofrece una gran flexibilidad para adaptar el tratamiento de datos a sus reglas. No obstante, hay una serie de condiciones mínimas que se deben cumplir:

  • La existencia de una base legal que legitime el tratamiento de datos personales.

  • La obligación de informar a los titulares de los datos y garantizar la transparencia de dicha información.

  • La obligación de proporcionar a los titulares mecanismos para el ejercicio de sus derechos.

  • La aplicación del principio de responsabilidad proactiva, que exige la incorporación de garantías adicionales, documentadas y orientadas a gestionar el riesgo para los derechos y libertades de los individuos, incluyendo la obligación de mantener un registro de actividades de tratamiento.

  • El cumplimiento de los requisitos necesarios para realizar transferencias internacionales de datos.

En resumen, la existencia de una tecnología no justifica la comercialización de productos que no cumplan con un adecuado nivel de calidad de servicio, especialmente si hay normativa que lo requiere. La industria de la inteligencia artificial necesita guías y apoyo para cumplir con la normativa y asegurar la seguridad jurídica en sus proyectos. Para proteger los datos personales y cumplir con el RGPD, las soluciones de IA deben ser objetivas y gestionadas con garantías adecuadas. La Guía de la AEPD destaca que los riesgos de la IA pueden amplificar problemas éticos, por lo que es crucial utilizar estrategias de transparencia, gestión de riesgos y mecanismos de auditoría. El desafío no está solo en la tecnología, sino en su uso responsable, evitando delegar completamente en sistemas de IA sin supervisión crítica y protegiendo adecuadamente los datos.

 
 
 
 



No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad