Carpeta de justicia

LawAndTrends



Eduardo Santos, Blanca Ramos y Olivier Izal abrieron las jornadas.

Hemos progresado muy deprisa, pero nos hemos encarcelado a nosotros mismos. El maquinismo, que crea abundancia, nos deja en la necesidad. Nuestro conocimiento nos ha hecho cínicos. Nuestra inteligencia, duros y secos. Pensamos demasiado, sentimos muy poco. Más que máquinas necesitamos más humanidad. Más que inteligencia, tener bondad y dulzura”. Son reflexiones del monólogo final de la película ‘El gran dictador’, de Charles Chaplin, que Olivier Izal, presidente de la Comisión de Derecho de las Tecnologías del M.I. Colegio de Abogados de Pamplona, recordó durante la apertura de las XIII Jornadas de Derecho de la tecnología, celebradas recientemente bajo el lema ‘Inteligencia artificial: Como afecta a tus derechos’.

La película va a cumplir 80 años pero su monólogo parece dirigido a advertirnos sobre los riesgos que corremos con una inteligencia artificial (IA) mal utilizada. Izal señaló que la inteligencia artificial “nos puede proporcionar mayor bienestar, el problema es la estupidez humana” que la usa con fines no dignos ni nobles, como una herramienta de control al servicio del poder o por parte de organizaciones no democráticas. Añadió que la IA va a transformar el mundo y que por eso “debe estar al servicio de los derechos fundamentales de las personas”, un objetivo por el que exhortó a luchar a los profesionales de la abogacía.
 
También participaron en la apertura de las jornadas la decana Blanca Ramos, que dio la bienvenida a los asistentes, y el consejero de Políticas Migratorias y Justicia del Gobierno de Navarra, Eduardo Santos, quien comenzó por señalar que hemos pasado de contemplar con ingenuidad el ciberactivismo a la “ciberpreocupación”. Expuso que la tecnología no es ideológicamente inocua y planteó que al regirse por “fríos algoritmos” da respuestas parecidas o iguales a cuestiones y situaciones que no lo son. Por eso reclamó una regulación desde el Derecho, “que es la forma de organizar las sociedades”.
 
El consejero indicó que los y las abogadas son la “avanzada” en la defensa de los derechos de las personas y que también son los primeros a los recurren quienes se ven afectados por los abusos de quienes manejan la IA, al tiempo que se comprometía a seguir con atención desde su departamento el problema “de la misma forma que trataremos de dar respuesta a esta y cuantas cuestiones nos haga llegar la sociedad”.
 

Un humano inteligente

 
Tras la apertura y presentaciones llegó el turno del primer ponente, Humberto Bustince Sola, licenciado en Ciencias Físicas, doctor en Matemáticas, profesor e investigador de la Universidad Pública de Navarra y una de las máximas personalidades más influyentes del mundo en el campo de la lógica intuicionista difusa o borrosa, además de haber recibido el premio nacional de informática. “El objetivo de mi charla es meter miedo, que salgáis siendo conscientes de que tenemos un problema muy gordo”, dijo al iniciar su intervención, y desde luego sus razonamientos alarmaron a quienes le escucharon.
Humberto Bustince, durante su intervención.

 

 
Tras definir la IA como "la ciencia que trata de hacer máquinas que hacen cosas que, si las hiciera una persona, diríamos que esa persona es inteligente", Bustince defendió que, desde el punto de vista legal, el problema no está en la IA sino en los datos que la alimentan, hasta el punto de que quien los maneja "puede dominar el mundo". Aseguró que el gran peligro de la IA para la humanidad es que se le dé acceso total a los datos digitales o ‘big data’, porque incluyen aspectos personales y eso se traduciría en la desaparición de la privacidad, algo que ya ocurre porque queda constancia de todo lo que hacemos con el móvil, generamos datos que alguien recoge y después utiliza, como demostró con inquietantes ejemplos. Por eso reclamó una regulación que incida principalmente en las leyes y la ética “que es donde más estamos fallando”.
 
 
“Cada dos años los datos digitalizados se multiplican por dos, y su tratamiento es lo preocupante”, apuntó Bustince, quien añadió que la competencia tecnológica entre Estados Unidos y China hace que prescindan de consideraciones éticas, y como Europa intenta hacer una regulación mucho más estricta corre el peligro de quedarse por detrás, “en realidad es una guerra que ya hemos perdido”,  lamentó.
 
La IA, bien utilizada, tiene unas aplicaciones revolucionarias: ya detecta mejor el cáncer de piel que un dermatólogo, e incluso el de mama. Puede predecir la depresión de un adolescente con un 96% de precisión, pero insistió el ponente que todavía no hay nada legislado sobre su uso en el campo de la medicina por lo que nuestros datos sanitarios también pueden caer en manos de organizaciones con intereses ajenos a la salud.
 
Humberto Bustince expuso un ejemplo de ese doble uso de la IA. Indicó que participó en el desarrollo de una herramienta para la desaparecida Caja Navarra que predecía posibles casos de morosidad entre sus clientes, lo que le ayudaba a tomar medidas preventivas. “Ese programa, muy mejorado, se utiliza ahora en China a lo bestia”, y se traduce en decisiones tan dudosas como no permitir el acceso a la universidad de un estudiante, que ha aprobado el correspondiente examen, porque un sistema de reconocimiento facial combinado con los datos que se tienen de él alerta de que puede ser peligroso a ojos de las autoridades. “Es terrible, la privacidad no existe”, insistió el ponente antes de concluir planteando la pregunta del precio que estamos dispuestos a pagar por vivir en una ciudad segura.
 



No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad