lawandtrends.com

LawAndTrends



La Inteligencia Artificial ha llegado para quedarse, y supuestamente para mejorar nuestra vida. Por ello, es obligatorio que la Unión Europea lo regule, debido a las implicaciones que puedan llegar a tener. Es por eso que, la Unión Europea ha dado un paso importante hacia la regulación de la inteligencia artificial (IA) con la publicación del Reglamento (UE) 2024/1689, que establece normas armonizadas en materia de inteligencia artificial (Reglamento europeo de Inteligencia Artificial). Aunque la normativa completa será aplicable el 2 de agosto de 2026, algunas disposiciones comenzarán a aplicarse antes, subrayando la urgencia de gestionar los riesgos asociados a la IA.

La normativa ha sido publicada como el Reglamento 2024/1689, por el que se establecen normas armonizadas en materia de inteligencia artificial. La normativa es extensa, y enfatiza en el control de obligaciones y en fomentar tecnologías sostenibles.

¿Por qué es necesaria esta regulación?

La IA está revolucionando nuestras vidas, desde la manera en que interactuamos con la tecnología hasta cómo se automatizan tareas en distintos sectores. Sin embargo, estos avances traen consigo desafíos que requieren una supervisión rigurosa para garantizar que las innovaciones no comprometan derechos fundamentales, como la protección de datos. El Reglamento busca equilibrar el progreso tecnológico con la protección de la privacidad y la seguridad de los ciudadanos.

Fechas clave del Reglamento europeo de Inteligencia Artificial

Como comentábamos anteriormente, la normativa no se aplicará íntegramente hasta el 2 de agosto de 2026, pero determinadas prácticas de la IA estarán ya prohibidas desde febrero de 2025, además de que habrá sistema de gobernanza de la IA en Europa, arsenal sancionador por incumplimiento, y organismos reguladores de la IA.

  • Las prohibiciones de determinadas prácticas relacionadas con la IA serán ya aplicables a partir del 2 de febrero de 2025.
  • Las previsiones relativas a los organismos notificados, a los sistemas de IA generales pero que implican riesgos sistémicos, al sistema de gobernanza de la IA en Europa y buena parte del arsenal sancionador serán aplicables a partir del 2 de agosto de 2025 (con lo que la base organizativa estará ya lista para cuando sea exigible el conjunto más sustancial de obligaciones).
  • Será aplicable a partir del 2 de agosto de 2027 la regulación de ciertos sistemas de IA de alto riesgo (los que sean componentes de seguridad de ciertos productos o constituyan en sí mismos dichos productos caracterizados por requerirse una evaluación de seguridad para su comercialización o puesta en servicio -por ejemplo, máquinas, juguetes, ascensores o productos sanitarios-).

Protección de datos

No debemos olvidar que la IA es un riesgo brutal a nivel de protección de datos. Al fin y al cabo, las IA «aprenden», pero la gran pregunta es si aprenden respetando protección de datos o no. No es lo mismo que una IA utilice los datos de todos los usuarios para «saber cosas», que no los utilice. Si no los utiliza, la IA será menos efectiva, pero será más respetuosa con la normativa europea.

La implicación de la IA en Protección de Datos será de los ámbitos que más controversia generarán y que más deberá ser estudiado por los expertos para no vulnerar los derechos de los ciudadanos.

Ámbito de aplicación objetivo

En cuanto al ámbito de aplicación objetivo, el Reglamento europeo de Inteligencia Artificial parte de una amplia definición de lo que se ha de entender por IA y deja fuera de su ámbito de aplicación sólo algunas manifestaciones concretas de estos sistemas.

Queda fuera la aplicación de la IA para fines militares y los sistemas que vaya a tener como finalidad el desarrollo científico, la seguridad nacional, entre otros. Por consiguiente, se trata de regular los sistemas de IA para fines comerciales y de servicios.

Mecanismos de control

Como mecanismos de control, hay tres niveles de riesgo definidos por el Reglamento europeo de Inteligencia Artificial.

  • Riesgo inadmisible: prácticas que quedan prohibidas por atentar contra los valores de la UE, como el uso de IA para puntuación social, técnicas subliminales, aprovechamiento de vulnerabilidad de las personas, categorizarlas biométricamente en remoto a tiempo real o reconocer sus emociones.
  • Alto riesgo: incluiría todos los sistemas con IA que implican juguetes, ascensores, vehículos de motor, etc. y también los sistemas de seguros de vida y salud, clasificación crediticia de las personas, promoción, despido de personal, etc.
  • Riesgo bajo: son los límites donde la IA puede desarrollarse tranquilamente, como puede ser el uso de chatbots o asuntos de interés público.

Conviene tener en cuenta que los sistemas generales de IA, como CHAT GPT o GEMINI, entrañan riesgos sistémicos, pueden causar accidentes graves, ser utilizados indebidamente, ser utilizados para ciberataques, entre otras vulneraciones.

Estructura administrativa de control y régimen sancionador

Se diseña una estructura administrativa de control y régimen sancionador, de hecho, en España ya tenemos la AGENCIA ESPAÑOLA DE SUPERVISIÓN DE INTELIGENCIA ARTIFICIAL (Real Decreto 729/2023, de 22 de agosto), que debe inspeccionar, comprobar y sancionar en caso de mal uso.

A nivel europeo, la OFICINA EUROPEA DE INTELIGENCIA ARTIFICIAL será el organismo de control al que corresponden importantes funciones.

Atención. Las multas por infracciones del Reglamento de Inteligencia Artificial se han fijado como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o un importe predeterminado, si este fuera superior, y pueden llegar hasta los 35 millones de euros o el 7 % del volumen de negocios anual total a escala mundial del infractor durante el ejercicio financiero anterior, si este importe fuera superior.




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad