lawandtrends canal de whatsapp

LawAndTrends



Enrique Remón y Javier Fröhlingsdorf

La Inteligencia Artificial ("IA") se abre camino en nuestra sociedad y se erige como el gran motor del cambio tecnológico.

Asistentes de voz, reconocimientos faciales, robots inteligentes, vehículos autónomos o la utilización de sistemas para la lucha contra el cáncer son solo algunos de los hitos más relevantes que nos deja la IA. Ahora bien, como todo y pese a las indudables ventajas que nos brinda y brindará la IA, ésta tampoco está exenta de que sus capacidades, autonomía y potencial puedan atentar contra bienes jurídicos protegidos. La Resolución del Parlamento Europeo, de 6 de octubre de 2021, sobre la inteligencia artificial en el Derecho Penal y su utilización por las autoridades policiales y judiciales en asuntos penales, ya advertía que la IA "aporta una transformación positiva en la economía y la sociedad europea, pero también enormes riesgos para los derechos fundamentales".

Varios de los ejemplos podemos encontrarlos en Hungría en el año 2019 (considerado el primer delito cometido a través de estos sistemas), cuando unos ciberdelincuentes, con la ayuda de la IA, simularon la voz del CEO de una compañía para lograr un depósito urgente de 243.000 euros; o en Florida, EEUU, también en el año 2019, donde un vehículo autónomo perdió el control causando la muerte de una persona. Supuestos como estos ponen sobre la mesa la necesidad de que el Derecho Penal ofrezca una respuesta en cuanto a la atribución de la responsabilidad penal. Cuando los sistemas de IA son utilizados como medio para la comisión de delitos, no deja lugar a dudas que habría de exigir responsabilidad penal a aquellos que se sirvieron de la IA para lograr sus fines ilícitos. Podríamos decir que se cambia la clásica "carta nigeriana" o a la falsificación de documentos a manos por los sistemas de IA.

Sin embargo, en supuestos como el segundo, donde es la propia IA la que, ya con cierta autonomía y fuera de control, ha atentado contra un bien jurídico protegido, cabe cuestionarse quién deberá responder penalmente por estos hechos o, es más, si fuera posible considerar a la IA como sujeto activo del delito para lo cual, habría que dotar de un status procesal a los sistemas de IA, por el momento inexistente en nuestro ordenamiento jurídico.

Para tratar de responder a estas cuestiones, se debe abordar el planteamiento desde distintos puntos de vista en lo que a la responsabilidad se refiere: el primero, que considere al sistema de IA como un mero instrumento o medio para la comisión del hecho delictivo, atribuyendo responsabilidad penal únicamente al que, voluntariamente, hizo un uso indebido del sistema para lograr el fin concreto; en segundo lugar, que se atribuya la responsabilidad penal a quien, habiendo podido prever el resultado lesivo, no lo hizo y programó el sistema de IA que causó el resultado; y, en tercer lugar (y lo que parece más bien una utopía), que considere al sistema de IA responsable directo del resultado lesivo; es decir, sujeto activo del delito, exigiéndole una responsabilidad penal, como hemos dicho, hasta ahora inexistente, pero similar a la de la persona jurídica contemplada en el artículo 31 bis del Código Penal.

Llegados a este punto, podemos hablar del proyecto Robotics fancing law and ethics (RoboLaw), surgido en el año 2012 por la Comisión de Asuntos Jurídicos de la Unión Europea, que tenía como objeto establecer el estado legal de la robótica y fijar unas bases para un futuro marco legal regulatorio en esta materia y donde ya se trataban todas estas cuestiones. Lo interesante de este proyecto, entre otros extremos, es que se propuso la creación de una personalidad jurídica propia para estos sistemas, idéntica a la de las personas jurídicas, por cuanto exigir responsabilidad penal a los programadores de los sistemas concretos podría dar lugar a que nadie quisiera en un futuro programar sistemas de IA por miedo a que se le atribuyera la comisión de un hecho delictivo.

En definitiva, sin perjuicio de que la IA ha llegado a nuestra sociedad para quedarse y, sin duda alguna, al menos en ciertos aspectos, nos facilitará mucho la vida (en investigaciones policiales, por ejemplo, ya se está utilizando para la persecución de delitos), ésta no deja ni dejará de plantear numerosas cuestiones jurídicas que exigen una respuesta clara por parte de nuestro Derecho Penal a fin de establecer un marco regulatorio al respecto, determinando el grado de responsabilidad penal que deberá darse a los sistemas de IA autónomos. En cualquier caso, la cautela con la que se debe programar, crear, utilizar y legislar sobre la IA hace buena la frase de la película Ex Machina: "un día las inteligencias artificiales nos verán como a simios que caminaban erguidos condenados sin remedio a la extinción."




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad