Carpeta de justicia

LawAndTrends



Mónica Hernández Latorre. DOMINGO MONFORTE Abogados Asociados

La inteligencia artificial ha presentado una vertiginosa evolución en las últimas décadas y podemos afirmar que está presente en todos los ámbitos susceptibles de generar relaciones jurídicas merecedoras de protección.

Podemos definir la inteligencia artificial siguiendo a la Resolución sobre Civil liability regime for artificial  intelligence de la Comisión Especial para la inteligencia artificial, en adelante IA, creada por el Parlamento Europeo como «aquel sistema que está basado en software o integrado en dispositivos de hardware, y que muestra un comportamiento que simula inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno, y la actuación, con cierto grado de autonomía, para lograr objetivos específicos».

La propuesta de Reglamento europeo de 21 de abril de 2021 fija en su artículo 3.1 las condiciones que debe tener un sistema de IA para quedar sujeto al ámbito de aplicación del mismo. Éstas son: operar con datos e inputs recibidos de máquinas o humanos, inferir cómo lograr un conjunto determinado de objetivos utilizando estrategias basadas en el aprendizaje automático o en la lógica y el conocimiento, y generar resultados en forma de contenidos, predicciones, recomendaciones o decisiones que influyan en el entorno con el que interactúa.

 El futuro reglamento pivota sobre el principio de que la persona que cree, mantenga, controle, explote u opere el sistema de IA ha de ser responsable del daño o perjuicio que cause el dispositivo o la actividad que lleve a cabo el mismo.

Resulta  relevante  a la hora de configurar esta responsabilidad por daños que los sistemas de IA, aunque dirigidos a un objetivo preestablecido, son capaces de ofrecer respuestas autónomas y no predeterminadas,  que pueden, por tanto, no depender exclusivamente de la programación de su algoritmo, lo que  resultará aún más patente cuando se produzca en un futuro el desarrollo a nivel práctico de la llamada IA fuerte; y ello  permite concluir que podrán darse supuestos de resultados dañosos derivados de toma de decisiones erróneas por parte de estos sistemas o de su aprendizaje autónomo conocido como  machine learning sin que podamos decir que derivan de un error en el propio sistema.

Este contexto actual de disrupción digital exige la atención del legislador y resto de operadores jurídicos que deben ser capaces de analizar, previendo todos los aspectos merecedores de respuesta jurídica, situaciones nuevas carentes de ningún tipo de precedente legislativo, teniendo en cuenta que, a la dificultad derivada de la originalidad de las mismas,  habrá que aunar la de la rapidez de los cambios en las tecnologías que les sirven de base y su grave impacto transversal en las relaciones humanas tanto individuales como organizacionales.

Sin ánimo exhaustivo, podemos citar algunas aplicaciones de IA de las que parece ya impensable prescindir, como los motores de recomendación presentes en materia de consumo o en la creciente compraventa a distancia, la banca online mediante sistemas de software capaces de realizar millones de operaciones bancarias diarias que nos proporcionan inmediatez en nuestras transacciones, así como otras de gran relevancia por afectar a ámbitos como la salud o el bienestar, entre las que podemos referirnos a  la visión por ordenador que permite obtener datos a través de imágenes digitales recomendando soluciones y que son de gran utilidad también para el desarrollo del sector automovilístico.

Las aplicaciones de IA a través de chatbots en línea están despertando mucho interés  en el mundo académico y  profesional, incluyendo el sector jurídico; por otro lado,  los servicios de atención al cliente de las organizaciones están haciendo uso de los mismos con niveles óptimos de satisfacción.

En este contexto, la UE, como actor indiscutible en el panorama jurídico, está intentando dar una respuesta uniforme al fenómeno, proponiendo soluciones a los retos que plantea su proyecto de Mercado único Digital e incluyendo en su propuesta legislativa la adaptación del marco normativo de responsabilidad civil, lo que parece imprescindible para afianzar la confianza que permita el desarrollo armónico de este mercado con la necesaria seguridad jurídica,  y que posibilite, especialmente a los sujetos  innovadores  y desarrolladores de nuevas aplicaciones de IA, tener una mejor comprensión de las implicaciones jurídicas y de los riesgos jurídicos transfronterizos  a los que se enfrentan.

Resultado de este esfuerzo ha sido la Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la Inteligencia Artificial de 28 de septiembre de 2022,  la cual ha llegado en un momento en que la responsabilidad por fallos de la IA figura en la agenda legislativa de varios Estados miembros.

Este proyecto normativo conforma, junto con la propuesta de Reglamento del Parlamento Europeo y del Consejo de 21 de abril de 2021en materia de IA y la propuesta de Directiva sobre responsabilidad por los daños causados por productos defectuosos publicada el 28 de septiembre de 2022 que previsiblemente derogará la vigente Directiva de 25 de julio de 1985  para adecuarla a la era digital, el contexto normativo europeo actual a tener en cuenta en materia de IA; esta regulación será objeto de revisión cada ciertos periodos de tiempo establecidos en la propia normativa europea para adaptarla a un proceso de evolución constante que tenga en cuenta un enfoque basado en la consideración holística de los riesgos.

Como establece el Informe del Comité Económico y Social Europeo aprobado el 24 de enero de 2023 publicado en el Diario Oficial de la Unión Europea el 21 de abril de 2023, la citada Directiva sobre responsabilidad civil en materia de IA, pretende mejorar el funcionamiento del mercado único, ampliando la protección concedida a las víctimas, ya sean particulares o empresas, mediante normas armonizadas. Esta regulación facilitará, por ejemplo, la obtención de una indemnización en el caso de que una persona se haya visto discriminada en un proceso de contratación que implique tecnología IA: “Es decir, con esta Directiva, la Comisión propone por primera vez una armonización específica de las normas nacionales en materia de responsabilidad civil para la IA, por lo que será más fácil para las víctimas de daños relacionados con la IA obtener una indemnización. En consonancia con los objetivos  del Libro Blanco sobre la IA y con la propuesta de Ley de IA de 2021 de la Comisión –que establece los principios del Estado de Derecho a través de un marco de fiabilidad y confianza en la IA-, las nuevas normas garantizarán que las víctimas se beneficien de una protección justa cuando se vean perjudicadas por productos o servicios de IA, al igual que si el daño hubiese sido causado por cualquier otra circunstancia”.

Como mecanismos innovadores que presenta la Directiva para facilitar esta protección debemos resaltar los dos siguientes: en primer lugar, mediante el establecimiento de una presunción de causalidad de la producción del resultado dañoso por el sistema de IA cuando se aprecie como bastante probable la existencia del nexo causal y se demuestre el incumplimiento pertinente de la normativa nacional o de la Unión al respecto, estableciéndose disposiciones específicas para los casos de sistemas de IA de alto riesgo; y en segundo lugar, la posibilidad de obtención de una orden del órgano jurisdiccional competente que estableciendo las medidas oportunas para proteger el secreto empresarial, dé acceso a la información necesaria para determinar la casusa del daño sufrido y la persona física o jurídica a la que procede demandar por dicho daño.

Cuando se pueda  acceder fácilmente a las pruebas pertinentes sobre estos extremos, la presunción ya no será aplicable, lo que constituye un verdadero incentivo para facilitar la información por parte de empresas o proveedores que pudieran resultar  implicados.

Estas dos medidas propiciarán el resultado satisfactorio del resarcimiento de la víctima sin renunciar a la necesaria relación de causalidad como elemento esencial constitutivo de cualquier reclamación por daños.

La propuesta de Directiva establece, por tanto, una responsabilidad civil subjetiva aunque  simplifica y reduce la carga de la prueba para la víctima, principalmente mediante el juego de la presunción de causalidad a la que nos hemos referido y, en consonancia con los objetivos europeos propuestos, aspira a garantizar a las víctimas una indemnización que resulte cuanto menos igual a la que correspondería si los daños se hubieran producido sin la intervención total o parcial de sistemas de IA como un elemento primordial para generar la confianza ciudadana en los avances de la IA, entendiendo que el aumento gradual de la misma debe construirse desde el respeto a los derechos de las personas en su dimensión individual y colectiva, con especial cuidado  en la protección de la privacidad y el efectivo resarcimiento cuando sea procedente.

Es interesante mencionar que la propuesta de Directiva no prevé en esta fase la obligatoriedad de un seguro para las aplicaciones de IA. Ello es debido a la carencia de datos que desde la experiencia permitan  establecer métodos y procedimientos de calificación de futuros daños que pudieran considerarse razonablemente fiables; aunque previsiblemente,  a medida  que fluya  información fehaciente sobre los diversos incidentes relacionados con sistemas de IA, mediante la realización de pruebas y su documentación, se introducirá un régimen de responsabilidad objetiva o un seguro obligatorio.

Es indudable que el sistema de responsabilidad civil está sufriendo un avance y desarrollo transcendente y progresivo que conduce al aplicador del Derecho a responder a las expectativas actuales de ampliación de la protección que incluyen nuevos ámbitos, mecanismos jurídicos de garantía e incluso a través de la interpretación amplia de conceptos tradicionalmente más restringidos como el del daño moral. A propósito de este último y enlazándolo con los sistemas de Inteligencia Artificial como causantes del daño susceptible de compensación,  resulta oportuno traer a colación el reciente dictamen del abogado general del Tribunal de Justicia de la Unión Europea, Giovanni Pitruzzella, que en una cuestión prejudicial presentada por el Alto Tribunal de Bulgaria a propósito de un fallo en los sistemas de seguridad del sistema informático de la Agencia Nacional de recaudación búlgara, se ha mostrado favorable a que el resarcimiento que se otorgue por los tribunales a las víctimas en los casos de fallos o incumplimientos que den lugar a brechas de seguridad en la privacidad de los datos tratados o almacenados, incluya el daño moral consistente en el perjuicio resultante del temor a un potencial futuro uso indebido de sus datos personales siempre que se trate de un daño emocional real y cierto y no de un mero trastorno o molestia.

Por tanto, cuando se produzcan fallos en sistemas de Inteligencia Artificial  no amparados por la Directiva de responsabilidad por los daños causados por productos defectuosos, -ésta última, como se sabe, establece una responsabilidad objetiva y en su propuesta de modificación considera también como “productos” a los sistemas y bienes habilitados para la IA que incluyen software, sistemas de IA y servicios digitales que sean necesarios para que funcione el producto-, es decir, cuando los daños sean causados, no por defectos en la IA en los términos establecidos en la Directiva, sino por problemas de seguridad o violaciones de la privacidad que quedan  bajo el paraguas de la Directiva sobre responsabilidad civil en materia de IA, éstos deberán dar lugar a una responsabilidad civil subjetiva y a la indemnización pertinente, que podrá consistir, además de en el resarcimiento de los daños patrimoniales que en su caso procedan, en la compensación adecuada al daño moral ocasionado.

Con ambición legislativa vanguardista, la iniciativa del pasado 11 de mayo de 2023 del Parlamento Europeo convierte a Europa en el primer espacio geográfico organizado del mundo que regula las todavía muy desconocidas posibilidades y riesgos de la IA y de sus versiones más avanzadas, tanto las ya conocidas como las aún por desarrollar. Dos años después de que la Comisión presentara su propuesta de reglamento para la IA, antes tratado, se pretende el abordaje de los modelos generativos que en aquel momento no eran conocidos por el gran público y que son capaces de crear tanto imágenes como, paradigmáticamente lo ha sido, la famosa foto falsa del Papa vistiendo un llamativo abrigo de plumas blanco, como textos, especialmente el tan de moda y tan preocupante ChatGPT, estén obligados a cumplir medidas adicionales de transparencia, para dejar sobre todo claro que han sido creados mediante IA.

Es indudable la preocupación latente por los potenciales y previsibles efectos negativos en los derechos y libertades ciudadanas. Se proponen prohibir los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo real o ex-post en espacios públicos, salvo muy contadas excepciones por motivos de seguridad. Se trata, ha resumido uno de los relatores de la propuesta legislativa, el eurodiputado italiano Brando Benifei, de proporcionar a Europa una legislación con un enfoque “ético y antropomórfico” para “ganar la confianza de los ciudadanos” en estos sistemas que tanto afectan y van a seguir afectando sus vidas sin impedir, a la par, el avance de las nuevas tecnologías.

De estas reflexiones surge la necesidad de realizar, además, por todos los agentes implicados, una adecuada estrategia de comunicación que incluya los derechos otorgados a las víctimas de estos daños, lo que redundará a su vez, en el aumento de la confianza general en la transición digital.




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad