lawandtrends canal de whatsapp

LawAndTrends



Ante el rápido desarrollo tecnológico  de I.A. los estados realmente  comprometidos con la dignidad de la persona y los derechos inalienables de que es titular deben actuar no solo para aprovechar las muchas oportunidades que ofrece esta tecnología para el  desarrollo en múltiples áreas como la salud,  las finanzas, la movilidad, la  agricultura, el aprovechamiento  energético, el transporte, los seguros, los sistemas policiales de prevención  del delito o los sistemas de gestión de Compliance basados en el control de  riesgos,  sino para abordar con  acierto los desafíos que  la I.A. plantea para la  seguridad, la dignidad humana y los derechos fundamentales (el derecho a la intimidad personal y familiar, a la  protección de datos de carácter personal, a la igualdad, a la libertad ideológica, a la tutela judicial efectiva o a la presunción de inocencia o a un proceso público con todas las garantías), asegurando, lo que ya algunas instituciones públicas, como la propia Comisión Europa, o privadas, como las universidades de Stanford o el M.I.T., han denominado un “enfoque antropocéntrico de la I.A.”

Los sistemas basados en la I.A. pueden consistir simplemente en un programa  informático (p. ej. asistentes de voz,  programas de análisis de imágenes,  motores de búsqueda, sistemas de reconocimiento facial y de voz), pero la I.A. también puede estar incorporada en dispositivos de hardware (p. ej. robots avanzados, automóviles autónomos, drones o aplicaciones del internet de las cosas). El término "inteligencia artificial"  (I.A.) se aplica a los sistemas que  manifiestan un comportamiento  inteligente, siendo capaces de analizar  su entorno, pasar a la acción -con cierto grado de autonomía- y alcanzar objetivos específicos1.

Una gestión responsable de los sistemas de I.A.  exige la mayor transparencia por parte de entidades públicas y privadas que han de  tener en cuenta, desde el diseño y desarrollo de los sistemas  a la utilización que se haga de los mismos,  el respeto a los derechos fundamentales  y a los principios y valores éticos que inspiran las constituciones democráticas,  asegurando que la  investigación e  innovación en esos campos  y en sus  aplicaciones, sean realizadas con criterios  éticos, objetivo que se puede lograr no solo con una regulación legal adecuada,  sino por medio de la propia  autorregulación de los intervinientes en los procesos de diseño, desarrollo,  despliegue y uso de los sistema de I.A

La I.A. plantea interesantes cuestiones  desde el punto de vista de la  responsabilidad penal. Ya en 2017 el Parlamento europeo sugirió otorgar  a los robots el estatus de personas  electrónicas a fin de poder tratarlas  como entes responsables y, aunque la idea fue rechazada por la Comisión en su estrategia para la I.A., el tema volverá, más que seguramente, a plantearse.  Desde luego en nuestro sistema penal,  una vez dado el salto de entender  responsables penales a entidades “no pensantes ni sintientes” como las  personas jurídicas, no parece  descabellado hacerlo también, al menos, con los sistemas de superinteligencia  Artificial (ASI en inglés). Cosa distinta es que, desde el punto de vista dogmático, al igual que ha sido criticada la regulación legal de la responsabilidad penal de las personas jurídicas,  para evitar ficciones ajenas a los principios de tipicidad y  culpabilidad, se considere  más adecuado,  tratar a los sistema de I.A. como  instrumentos del delito, previendo su  decomiso y  castigando penalmente a quien intervino en su diseño, desarrollo,  comercialización o uso con fines  ilegítimos, o incumpliendo  gravemente  los deberes de supervisión y control   sobre el propio sistema.

La ciencia ficción ya adelantó algunos  escenarios de posibles delitos cometidos por sistemas de  I.A., que hoy percibimos  como factibles, desde atentados a  personas o  infraestructuras, a  la  generación de discursos de odio en  redes sociales o la difusión masiva de  información falsa con el propósito de influir  en el resultado de determinados  procesos políticos,  en el precio de cotización  de un instrumento financiero, o en la formación de los precios a partir de la libre competencia de las empresas en el mercado.

Pero  la I.A. no solo puede ser  instrumento para el delito de una u otra naturaleza, también tiene un hueco  asegurado en los sistemas de justicia penal,  en la persecución del delito (en particular en la persecución de  delitos f inancieros,  de blanqueo de capitales, de  f inanciación del terrorismo ,  de  abuso  y  explotación sexual de niños a través  de red, o determinados tipos de  ciberdelincuencia) y en los sistemas de prevención del delito, tanto policiales,  como de compliance de las propias  empresas desarrolladoras, comercializadoras  o usuarias de los sistemas de I.A.

La I.A. analizando big data, podría  utilizarse para predecir escenarios de riesgo penal. Por dar algunos ejemplos, American Express ya utiliza el aprendizaje  automático propio de la I.A. para  predecir transacciones fraudulentas, y muchos juzgados de los Estados Unidos utilizan un sistema de I.A., denominado Compas, para predecir si las personas condenadas por determinados delitos pueden reincidir. Otra herramienta de prospección de datos (data mining) es la europea Arachne, desarrollada por la Comisión Europea y aplicada en  los Planes Antifraude que han de  implementar las entidades gestoras o ejecutoras de fondos nextgeneration, con la finalidad de detectar las situaciones de fraude o riesgo de conflicto de intereses

Sin embargo, el uso de sistemas de  I.A. con estos fines loables y lícitos no  está exento de riesgos y su utilización generalizada no estaría justificada en cuanto pudieran colisionar con el  respeto a los derechos fundamentales. No olvidemos que el derecho penal  moderno se basa en el sistema  acusatorio, el cual se pone en juego ex post de un hecho atentatorio contra bienes jurídicos penalmente protegidos, y no ex ante, a partir de la suposición de que, siendo todas las personas capaces de cometer un hecho delictivo, deberían ser objeto de un seguimiento constante para evitar posibles conductas delictivas.  Esta reflexión debe de servir también para los sistemas de prevención de  delitos implantados en nuestro país, en organizaciones públicas o privadas, tras la entrada en juego de la responsabilidad  penal de las personas jurídicas. En este sentido se manifiesta expresamente la Resolución del Parlamento Europeo,  de 6 de octubre de 2021, sobre la  inteligencia artificial en el derecho  penal y su uso por las autoridades  policiales y judiciales en materia  penal2, al considerar que “las técnicas  de vigilancia basadas en IA desafían profundamente este enfoque y hacen urgente que los legisladores de todo el mundo evalúen minuciosamente las  consecuencias de permitir el despliegue de tecnologías que disminuyen el papel de los seres humanos en la aplicación de la ley”.

Dicha Resolución considera, que  “dado  el papel y la responsabilidad de las  autoridades policiales y judiciales, y el  impacto de las decisiones que toman,… el uso de aplicaciones de I.A. debe  clasificarse como de alto riesgo en los  casos en que existe el potencial de  afectar significativamente la vida de las personas,  con fines de prevención,  investigación, detección o enjuiciamiento de infracciones penales o la ejecución de sanciones penales” y, en consecuencia, que “todas las herramientas de I.A.  desarrolladas o utilizadas por las fuerzas  del orden o el poder judicial deben, como mínimo, ser seguras, sólidas y  adecuadas para su fin, respetar los  principios de equidad, minimización de datos, responsabilidad, transparencia, no discriminación y explicabilidad, así como que su desarrollo, implementación y uso deben estar sujetos a una evaluación de riesgos y pruebas estrictas de necesidad y proporcionalidad, donde las salvaguardas deben ser proporcionales a los riesgos identificados”

La Resolución que comentamos destaca  igualmente la “posibilidad de sesgo y discriminación derivados del uso de  aplicaciones de I.A., como el aprendizaje  automático, incluidos los algoritmos en los que se basan dichas aplicaciones, señalando que los sesgos pueden ser  inherentes a los conjuntos de datos  subyacentes, especialmente cuando se utilizan datos históricos, introducidos por los desarrolladores de los algoritmos  o generados cuando los sistemas se implementan en entornos del mundo real.” Se trataría pues de evitar, desde el diseño del sistema de I.A. el volcado de datos sesgados o discriminatorios, lo cual necesariamente determinaría el análisis realizado por la I.A. partiendo de dichos datos; algo que se puso en evidencia, por ejemplo, en relación al sistema Compas. Por eso es tan importante que el diseño de los sistemas de I.A. esté impregnado de contenido y criterios éticos y el más  escrupuloso respeto a los derechos  fundamentales

Incidiendo en este peligro, la Resolución  del Parlamento Europeo subraya el  hecho de que muchas tecnologías de identificación basadas en algoritmos  que se utilizan actualmente clasifican  erróneamente a discriminación y explicabilidad, así como que su desarrollo, implementación y uso deben estar sujetos a una evaluación de riesgos y pruebas estrictas de necesidad y proporcionalidad, donde las salvaguardas deben ser proporcionales a los riesgos identificados”. las personas,  amplificando y reproduciendo  formas de discriminación existentes; por eso se insiste en que “deben realizarse grandes esfuerzos para evitar la discriminación  y el sesgo automatizados”, máxime  cuando “las personas no solo tienen  derecho a ser correctamente  identificadas, sino también a no ser  identificadas en absoluto, a menos que la ley lo exija para intereses públicos  imperiosos y legítimos”

Tengamos en cuenta que nuestro sistema procesal penal se basa en el principio de igualdad de armas, lógico corolario del principio de contradicción relacionado con el derecho fundamental a un  proceso público con todas las garantías (ex art. 24.2 C.E.).

Según nuestro Tribunal Constitucional del principio de contradicción  se deriva  tanto la necesidad de que las partes  cuenten con los mismos medios de  ataque y defensa e idénticas posibilidades  y cargas de alegación, prueba e impugnación, a efectos de evitar  desequilibrios entre sus respectivas posiciones procesales, “sin que sean  admisibles limitaciones a dicho principio,  fuera de las modulaciones o excepciones  que puedan establecerse en fase de instrucción (o sumarial) por razón de la propia naturaleza de la actividad investigadora que en ella se desarrolla,  encaminada a asegurar el éxito de la  investigación y, en definitiva, la protección  del valor constitucional de la justicia”  (SSTC  48/2008 de 11 de marzo, FJ 3, 66/1989, de 17 de abril, FJ 12; 186/1990, de 15 de noviembre, FJ 5)» (STC 178/2001, de 17 de septiembre, FJ 3),  como la exigencia de que las pruebas de cargo articuladas en un procedimiento penal sean legales, (por todas SSTC SSTC  48/2008 de 11 de marzo, FJ 3, 236/2002, de 9 de diciembre, FJ 4; 147/2002, de 15 de junio, FJ 4; 165/2001, de 16 de julio, FJ 2; y 96/2000, de 10 de abril, FJ 2)» (STC 1/2004, de 14 de enero, FJ 2).

En consonancia con dicha doctrina,  patrimonio de los ordenamientos  jurídicos más avanzados y respetuosos con los derechos humanos, la Resolución del Parlamento considera fundamental, tanto para que el ejercicio del derecho de defensa sea efectivo como para  la transparencia de los sistemas nacionales de justicia penal (derecho a un proceso con todas las garantías), que un marco jurídico específico, claro y preciso regule las condiciones, modalidades y  consecuencias del uso de herramientas  de IA, así como los derechos de las  personas afectadas, y los procedimientos  de reclamación y reparación, incluida  la reparación judicial; subrayando el  derecho de las partes en un proceso  penal a tener acceso al proceso de  recopilación de datos y las evaluacione relacionadas realizadas u obtenidas  mediante el uso de aplicaciones de IA, e insistiendo  en que los Estados miembros,  de conformidad con la legislación  aplicable, deben garantizar que las  personas sean informadas cuando estén  sujetas al uso de aplicaciones de  inteligencia artificial por parte de las  autoridades policiales o judiciales.

El 19 de febrero de 2020 la Comisión  Europea publicó el Libro Blanco sobre  la inteligencia artificial: un enfoque  europeo orientado a la excelencia y la confianza3. En el Libro Blanco se definen las opciones existentes para alcanzar el doble objetivo de promover la adopción  de la IA y de abordar los riesgos  vinculados a determinados usos de esta nueva tecnología.

Esperando vea la luz el Reglamento de  Inteligencia Artificial propuesto por el Parlamento y el Consejo4, el pasado mes de diciembre,  se firmó, en el seno de la UE la Declaración Europea sobre los Derechos y Principios Digitales  que en relación a las interacciones con los algoritmos y los  sistemas de inteligencia artificial concreta como  compromisos que asume la UE y los estados miembros, en la materia, los de:

  • Promover sistemas de inteligencia  artificial centrados en el ser humano,  f iables y éticos a lo largo de todo  su desarrollo, despliegue y uso, en  consonancia con los valores de la UE;
  • Velar por un nivel adecuado de  transparencia en el uso de los  algoritmos y la inteligencia artificial y porque las personas estén informadas y capacitadas para utilizarlos cuando interactúen con ellos;
  • Velar por que los sistemas algorítmicos  se basen en conjuntos de datos  adecuados para evitar la discriminación y permitir la supervisión humana de  todos los resultados que afecten a  la seguridad y los derechos  fundamentales de las personas;
  • Garantizar que las tecnologías como la inteligencia artificial no se utilicen para anticiparse a las decisiones de las  personas en ámbitos como, por  ejemplo, la salud, la educación, el  empleo y la vida privada;
  • Proporcionar salvaguardias y adoptar las medidas adecuadas, en particular promoviendo normas fiables, para que la inteligencia artificial y los sistemas digitales sean seguros y se utilicen en todo momento con pleno respeto  de los derechos fundamentales de las personas; 
  • Adoptar medidas para garantizar que la investigación en inteligencia artificial respete las normas éticas más estrictas y la legislación pertinente de la UE

En conclusión, ante el espectacular  avance de la I.A. y las posibilidades que la misma ofrece para la prevención, detección y persecución del delito, resulta esencial,  partiendo del reconocimiento de unos  principios y derechos "ciberéticos",  basados en la transposición de los  derechos fundamentales esta  tecnología,  establecer normas claras y precisas que garanticen  el escrupuloso respeto a esos derechos y principios,  en el diseño, desarrollo y utilización de los sistemas de I.A. y sus aplicaciones,  tanto para en el ámbito judicial y policial, como en las administraciones  públicas y el  sector privado.

________________________

1. Inteligencia artificial para Europa [COM(2018) 237 final].

2 Resolución del Parlamento Europeo, de 6 de octubre de 2021, sobre la inteligencia artificial en el derecho penal y su uso por las autoridades policiales y judiciales en materia penal (2020/2016(INI).

3 Comisión Europea, Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza, COM (2020) 65 final, 2020.

4 Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadoras en materia de inteligencia artificial (COM/2021/206 final).

Artículo publicado en  la Revista AEAEC_Revista Enero 2023

 




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad