Ante el rápido desarrollo tecnológico de I.A. los estados realmente comprometidos con la dignidad de la persona y los derechos inalienables de que es titular deben actuar no solo para aprovechar las muchas oportunidades que ofrece esta tecnología para el desarrollo en múltiples áreas como la salud, las finanzas, la movilidad, la agricultura, el aprovechamiento energético, el transporte, los seguros, los sistemas policiales de prevención del delito o los sistemas de gestión de Compliance basados en el control de riesgos, sino para abordar con acierto los desafíos que la I.A. plantea para la seguridad, la dignidad humana y los derechos fundamentales (el derecho a la intimidad personal y familiar, a la protección de datos de carácter personal, a la igualdad, a la libertad ideológica, a la tutela judicial efectiva o a la presunción de inocencia o a un proceso público con todas las garantías), asegurando, lo que ya algunas instituciones públicas, como la propia Comisión Europa, o privadas, como las universidades de Stanford o el M.I.T., han denominado un “enfoque antropocéntrico de la I.A.”
Los sistemas basados en la I.A. pueden consistir simplemente en un programa informático (p. ej. asistentes de voz, programas de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento facial y de voz), pero la I.A. también puede estar incorporada en dispositivos de hardware (p. ej. robots avanzados, automóviles autónomos, drones o aplicaciones del internet de las cosas). El término "inteligencia artificial" (I.A.) se aplica a los sistemas que manifiestan un comportamiento inteligente, siendo capaces de analizar su entorno, pasar a la acción -con cierto grado de autonomía- y alcanzar objetivos específicos1.
Una gestión responsable de los sistemas de I.A. exige la mayor transparencia por parte de entidades públicas y privadas que han de tener en cuenta, desde el diseño y desarrollo de los sistemas a la utilización que se haga de los mismos, el respeto a los derechos fundamentales y a los principios y valores éticos que inspiran las constituciones democráticas, asegurando que la investigación e innovación en esos campos y en sus aplicaciones, sean realizadas con criterios éticos, objetivo que se puede lograr no solo con una regulación legal adecuada, sino por medio de la propia autorregulación de los intervinientes en los procesos de diseño, desarrollo, despliegue y uso de los sistema de I.A
La I.A. plantea interesantes cuestiones desde el punto de vista de la responsabilidad penal. Ya en 2017 el Parlamento europeo sugirió otorgar a los robots el estatus de personas electrónicas a fin de poder tratarlas como entes responsables y, aunque la idea fue rechazada por la Comisión en su estrategia para la I.A., el tema volverá, más que seguramente, a plantearse. Desde luego en nuestro sistema penal, una vez dado el salto de entender responsables penales a entidades “no pensantes ni sintientes” como las personas jurídicas, no parece descabellado hacerlo también, al menos, con los sistemas de superinteligencia Artificial (ASI en inglés). Cosa distinta es que, desde el punto de vista dogmático, al igual que ha sido criticada la regulación legal de la responsabilidad penal de las personas jurídicas, para evitar ficciones ajenas a los principios de tipicidad y culpabilidad, se considere más adecuado, tratar a los sistema de I.A. como instrumentos del delito, previendo su decomiso y castigando penalmente a quien intervino en su diseño, desarrollo, comercialización o uso con fines ilegítimos, o incumpliendo gravemente los deberes de supervisión y control sobre el propio sistema.
La ciencia ficción ya adelantó algunos escenarios de posibles delitos cometidos por sistemas de I.A., que hoy percibimos como factibles, desde atentados a personas o infraestructuras, a la generación de discursos de odio en redes sociales o la difusión masiva de información falsa con el propósito de influir en el resultado de determinados procesos políticos, en el precio de cotización de un instrumento financiero, o en la formación de los precios a partir de la libre competencia de las empresas en el mercado.
Pero la I.A. no solo puede ser instrumento para el delito de una u otra naturaleza, también tiene un hueco asegurado en los sistemas de justicia penal, en la persecución del delito (en particular en la persecución de delitos f inancieros, de blanqueo de capitales, de f inanciación del terrorismo , de abuso y explotación sexual de niños a través de red, o determinados tipos de ciberdelincuencia) y en los sistemas de prevención del delito, tanto policiales, como de compliance de las propias empresas desarrolladoras, comercializadoras o usuarias de los sistemas de I.A.
La I.A. analizando big data, podría utilizarse para predecir escenarios de riesgo penal. Por dar algunos ejemplos, American Express ya utiliza el aprendizaje automático propio de la I.A. para predecir transacciones fraudulentas, y muchos juzgados de los Estados Unidos utilizan un sistema de I.A., denominado Compas, para predecir si las personas condenadas por determinados delitos pueden reincidir. Otra herramienta de prospección de datos (data mining) es la europea Arachne, desarrollada por la Comisión Europea y aplicada en los Planes Antifraude que han de implementar las entidades gestoras o ejecutoras de fondos nextgeneration, con la finalidad de detectar las situaciones de fraude o riesgo de conflicto de intereses
Sin embargo, el uso de sistemas de I.A. con estos fines loables y lícitos no está exento de riesgos y su utilización generalizada no estaría justificada en cuanto pudieran colisionar con el respeto a los derechos fundamentales. No olvidemos que el derecho penal moderno se basa en el sistema acusatorio, el cual se pone en juego ex post de un hecho atentatorio contra bienes jurídicos penalmente protegidos, y no ex ante, a partir de la suposición de que, siendo todas las personas capaces de cometer un hecho delictivo, deberían ser objeto de un seguimiento constante para evitar posibles conductas delictivas. Esta reflexión debe de servir también para los sistemas de prevención de delitos implantados en nuestro país, en organizaciones públicas o privadas, tras la entrada en juego de la responsabilidad penal de las personas jurídicas. En este sentido se manifiesta expresamente la Resolución del Parlamento Europeo, de 6 de octubre de 2021, sobre la inteligencia artificial en el derecho penal y su uso por las autoridades policiales y judiciales en materia penal2, al considerar que “las técnicas de vigilancia basadas en IA desafían profundamente este enfoque y hacen urgente que los legisladores de todo el mundo evalúen minuciosamente las consecuencias de permitir el despliegue de tecnologías que disminuyen el papel de los seres humanos en la aplicación de la ley”.
Dicha Resolución considera, que “dado el papel y la responsabilidad de las autoridades policiales y judiciales, y el impacto de las decisiones que toman,… el uso de aplicaciones de I.A. debe clasificarse como de alto riesgo en los casos en que existe el potencial de afectar significativamente la vida de las personas, con fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o la ejecución de sanciones penales” y, en consecuencia, que “todas las herramientas de I.A. desarrolladas o utilizadas por las fuerzas del orden o el poder judicial deben, como mínimo, ser seguras, sólidas y adecuadas para su fin, respetar los principios de equidad, minimización de datos, responsabilidad, transparencia, no discriminación y explicabilidad, así como que su desarrollo, implementación y uso deben estar sujetos a una evaluación de riesgos y pruebas estrictas de necesidad y proporcionalidad, donde las salvaguardas deben ser proporcionales a los riesgos identificados”
La Resolución que comentamos destaca igualmente la “posibilidad de sesgo y discriminación derivados del uso de aplicaciones de I.A., como el aprendizaje automático, incluidos los algoritmos en los que se basan dichas aplicaciones, señalando que los sesgos pueden ser inherentes a los conjuntos de datos subyacentes, especialmente cuando se utilizan datos históricos, introducidos por los desarrolladores de los algoritmos o generados cuando los sistemas se implementan en entornos del mundo real.” Se trataría pues de evitar, desde el diseño del sistema de I.A. el volcado de datos sesgados o discriminatorios, lo cual necesariamente determinaría el análisis realizado por la I.A. partiendo de dichos datos; algo que se puso en evidencia, por ejemplo, en relación al sistema Compas. Por eso es tan importante que el diseño de los sistemas de I.A. esté impregnado de contenido y criterios éticos y el más escrupuloso respeto a los derechos fundamentales
Incidiendo en este peligro, la Resolución del Parlamento Europeo subraya el hecho de que muchas tecnologías de identificación basadas en algoritmos que se utilizan actualmente clasifican erróneamente a discriminación y explicabilidad, así como que su desarrollo, implementación y uso deben estar sujetos a una evaluación de riesgos y pruebas estrictas de necesidad y proporcionalidad, donde las salvaguardas deben ser proporcionales a los riesgos identificados”. las personas, amplificando y reproduciendo formas de discriminación existentes; por eso se insiste en que “deben realizarse grandes esfuerzos para evitar la discriminación y el sesgo automatizados”, máxime cuando “las personas no solo tienen derecho a ser correctamente identificadas, sino también a no ser identificadas en absoluto, a menos que la ley lo exija para intereses públicos imperiosos y legítimos”
Tengamos en cuenta que nuestro sistema procesal penal se basa en el principio de igualdad de armas, lógico corolario del principio de contradicción relacionado con el derecho fundamental a un proceso público con todas las garantías (ex art. 24.2 C.E.).
Según nuestro Tribunal Constitucional del principio de contradicción se deriva tanto la necesidad de que las partes cuenten con los mismos medios de ataque y defensa e idénticas posibilidades y cargas de alegación, prueba e impugnación, a efectos de evitar desequilibrios entre sus respectivas posiciones procesales, “sin que sean admisibles limitaciones a dicho principio, fuera de las modulaciones o excepciones que puedan establecerse en fase de instrucción (o sumarial) por razón de la propia naturaleza de la actividad investigadora que en ella se desarrolla, encaminada a asegurar el éxito de la investigación y, en definitiva, la protección del valor constitucional de la justicia” (SSTC 48/2008 de 11 de marzo, FJ 3, 66/1989, de 17 de abril, FJ 12; 186/1990, de 15 de noviembre, FJ 5)» (STC 178/2001, de 17 de septiembre, FJ 3), como la exigencia de que las pruebas de cargo articuladas en un procedimiento penal sean legales, (por todas SSTC SSTC 48/2008 de 11 de marzo, FJ 3, 236/2002, de 9 de diciembre, FJ 4; 147/2002, de 15 de junio, FJ 4; 165/2001, de 16 de julio, FJ 2; y 96/2000, de 10 de abril, FJ 2)» (STC 1/2004, de 14 de enero, FJ 2).
En consonancia con dicha doctrina, patrimonio de los ordenamientos jurídicos más avanzados y respetuosos con los derechos humanos, la Resolución del Parlamento considera fundamental, tanto para que el ejercicio del derecho de defensa sea efectivo como para la transparencia de los sistemas nacionales de justicia penal (derecho a un proceso con todas las garantías), que un marco jurídico específico, claro y preciso regule las condiciones, modalidades y consecuencias del uso de herramientas de IA, así como los derechos de las personas afectadas, y los procedimientos de reclamación y reparación, incluida la reparación judicial; subrayando el derecho de las partes en un proceso penal a tener acceso al proceso de recopilación de datos y las evaluacione relacionadas realizadas u obtenidas mediante el uso de aplicaciones de IA, e insistiendo en que los Estados miembros, de conformidad con la legislación aplicable, deben garantizar que las personas sean informadas cuando estén sujetas al uso de aplicaciones de inteligencia artificial por parte de las autoridades policiales o judiciales.
El 19 de febrero de 2020 la Comisión Europea publicó el Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza3. En el Libro Blanco se definen las opciones existentes para alcanzar el doble objetivo de promover la adopción de la IA y de abordar los riesgos vinculados a determinados usos de esta nueva tecnología.
Esperando vea la luz el Reglamento de Inteligencia Artificial propuesto por el Parlamento y el Consejo4, el pasado mes de diciembre, se firmó, en el seno de la UE la Declaración Europea sobre los Derechos y Principios Digitales que en relación a las interacciones con los algoritmos y los sistemas de inteligencia artificial concreta como compromisos que asume la UE y los estados miembros, en la materia, los de:
- Promover sistemas de inteligencia artificial centrados en el ser humano, f iables y éticos a lo largo de todo su desarrollo, despliegue y uso, en consonancia con los valores de la UE;
- Velar por un nivel adecuado de transparencia en el uso de los algoritmos y la inteligencia artificial y porque las personas estén informadas y capacitadas para utilizarlos cuando interactúen con ellos;
- Velar por que los sistemas algorítmicos se basen en conjuntos de datos adecuados para evitar la discriminación y permitir la supervisión humana de todos los resultados que afecten a la seguridad y los derechos fundamentales de las personas;
- Garantizar que las tecnologías como la inteligencia artificial no se utilicen para anticiparse a las decisiones de las personas en ámbitos como, por ejemplo, la salud, la educación, el empleo y la vida privada;
- Proporcionar salvaguardias y adoptar las medidas adecuadas, en particular promoviendo normas fiables, para que la inteligencia artificial y los sistemas digitales sean seguros y se utilicen en todo momento con pleno respeto de los derechos fundamentales de las personas;
- Adoptar medidas para garantizar que la investigación en inteligencia artificial respete las normas éticas más estrictas y la legislación pertinente de la UE
En conclusión, ante el espectacular avance de la I.A. y las posibilidades que la misma ofrece para la prevención, detección y persecución del delito, resulta esencial, partiendo del reconocimiento de unos principios y derechos "ciberéticos", basados en la transposición de los derechos fundamentales esta tecnología, establecer normas claras y precisas que garanticen el escrupuloso respeto a esos derechos y principios, en el diseño, desarrollo y utilización de los sistemas de I.A. y sus aplicaciones, tanto para en el ámbito judicial y policial, como en las administraciones públicas y el sector privado.
________________________
1. Inteligencia artificial para Europa [COM(2018) 237 final].
2 Resolución del Parlamento Europeo, de 6 de octubre de 2021, sobre la inteligencia artificial en el derecho penal y su uso por las autoridades policiales y judiciales en materia penal (2020/2016(INI).
3 Comisión Europea, Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza, COM (2020) 65 final, 2020.
4 Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadoras en materia de inteligencia artificial (COM/2021/206 final).
Artículo publicado en la Revista AEAEC_Revista Enero 2023