Carpeta de justicia

LawAndTrends



  • El relator general de la Asociación Internacional de Derecho Penal, Fernando Miró, ha defendido sostener la penalización de los delitos cometidos con IA en el riesgo permitido y no en el bien jurídico protegido 
  • En la Universitat Abat Oliba CEU, durante las III Jornadas Internacionales sobre Estrategias y Retos frente al Cibercrimen 

La respuesta del Derecho Penal a los desafíos que plantea la IA abre multitud de interrogantes entre los penalistas. Una de las características diferenciales de los delitos cometidos a través de tecnología asociada a la Inteligencia Artificial es que la intervención humana se produce en un momento muy anterior a la comisión del hecho en sí.  

Así lo ha subrayado el catedrático de Derecho Penal de la Universidad Miguel Hernández y relator general de la Asociación Internacional de Derecho Penal (AIDP), Fernando Miró. “La IA implica unos procesos de automatización de las decisiones y, por lo tanto, un cambio en el momento en el que se produce la agencia humana”. Es decir, la intervención del sujeto eventualmente responsable se adelanta respecto a lo que es típico en la mayoría de las figuras penales.  

Esta realidad obliga a adelantar la barrera de protección penal. En este punto, tendrá un gran peso la “criminalización de conductas imprudentes y de peligro”, ha subrayado durante su intervención en las III Jornadas Internacionales sobre Estrategias y Retos frente al Cibercrimen, organizada por la Universitat Abat Oliba CEU en colaboración con la Universidad Austral.  

De hecho, Miró cree que el fundamento de la criminalización en el caso de delitos cometidos a través de IA debería sostenerse en la lógica de los riesgos permitidos y no en la del bien jurídico protegido. Esto obligará a construir la criminalización teniendo en cuenta las regulaciones de otras ramas del Derecho, en las que se va a identificar cuál es el riesgo permitido en relación con la IA, ha argumentado el ponente.  

Un caso paradigmático sería el ‘deep fake’. En estos casos, la clave estará “en lo que la Digital Market Act considere que es IA y cuáles son los riesgos permitidos” 

La postura de Miró se resume en la idea de que es “mejor pensar cómo hay que decidir castigar antes que centrarse en qué hay que castigar”. La respuesta final será fruto de un proceso de “filtrado”. En primer lugar, saber cuál es el riesgo permitido; después, analizar si es necesaria la intervención del Código Penal; y, por último, valorar si reaccionando penal no se causa más daño del que se pretende evitar.  

Tras la intervención de Miró, ha tomado la palabra el abogado y profesor de la Universitat Oberta de Catalunya, Andreu Van Den Eynde. Se ha mostrado de acuerdo en varias de las ideas expresadas por Miró: “no habrá otra que adelantar la barrera de protección”. También lo ha estado en la actitud de prudencia antes de crear nuevos tipos penales. En este sentido, se ha referido al riesgo de la “batalla del populismo”, en el sentido de que “es fácil caer en la dinámica de criminalizarlo todo”. Finalmente, también ha manifestado su preocupación por la amenaza que puede representar para los ciudadanos el hecho de que los Estados dispongan de la tecnología de la IA: “¿Qué incentivos tienen los Estados para no utilizar estas herramientas con fines desproporcionados?”, ha comentado.  

Completaba la mesa el fiscal delegado de Criminalidad Informática de Guipúzcoa, Jorge Bermúdez. Desde su punto de vista, la cuestión de la imputación del delito es una de las claves del asunto. “El problema del ciberdelito es situar en el banquillo a alguien a quien acusar”.  

Las Jornadas, celebradas en la Universitat Abat Oliba CEU, se ha completado con una mesa redonda sobre Estrategias y Técnicas de Abordaje frente al Grooming. Han participado Roberto Valverde, fiscal delegado de Criminalidad Informática (Barcelona); Patricia de Santisteban, doctora en Psicología Clínica por la Universidad Autónoma de Madrid y especialista en grooming; y Juan Carlos Hortal, profesor agregado de Derecho Penal de la Universitat de Barcelona. 




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad