Carpeta de justicia

LawAndTrends



Pilar del Castillo, copresidenta del Intergrupo parlamentario sobre IA, aboga a un diálogo entre la UE y EEUU para regular esta materia en un seminario organizado por Herbert Smith Freehills para analizar las oportunidades y riesgos de la IA creativa en el uso empresarial.

En materia de regulación de la Inteligencia Artificial (IA) generativa “es fundamental un diálogo internacional, comenzando por un diálogo transatlántico entre Estados Unidos y la Unión Europea por los estándares que compartimos”. Así lo ha asegurado Pilar del Castillo Vera, copresidenta del Intergrupo sobre Inteligencia Artificial del Parlamento Europeo y exministra de Educación, durante el foro "Inteligencia artificial creativa. Uso empresarial: oportunidades y riesgos”, organizado en Madrid por el despacho Herbert Smith Freehills, que ha reunido a varios expertos para abordar los principales retos de las herramientas de IA, que, desde hace pocos meses, se han convertido en un artículo de consumo accesible y que empresas en todo el mundo ya emplean en su actividad cotidiana.

Precisamente, Del Castillo se refirió al actual debate que tiene lugar en el seno de la UE de la que puede terminar siendo la primera regulación del mundo en esta materia. Aseguró que “el desarrollo tecnológico de la IA afecta profundamente a la sociedad y a todos los sectores económicos”, por lo que, “el debate de cómo regularla está teniendo lugar en diferentes países e instituciones internacionales, no sólo en Europa”.  En este sentido, explicó que el Reglamento europeo en el que se trabaja actualmente “persigue un objetivo muy específico: proteger la salud, la seguridad y los derechos fundamentales de las personas, generando una mayor confianza en la Inteligencia Artificial, lo que a su vez potenciaría su desarrollo e implementación”. Y concluyó que “ser los primeros en regular esta materia puede posicionar y ayudar a las empresas que operan en la UE a que tengan más instrumentos para desarrollarse”.

Por su parte, Eduardo Soler Tappa, socio director de Herbert Smith Freehills, aseguró que “la IA está teniendo un crecimiento exponencial y recuerda en sus orígenes a lo que pudo ser el nacimiento del propio internet, logrando en poco tiempo una gran implantación doméstica”, lo que explica “los grandes retos y desafíos a los que nos enfrentamos”. Y es que, los expertos coincidieron en que, si bien se trata de herramientas de enorme utilidad en la realización de tareas sencillas, repetitivas y "mecanizables", debido a la gran voracidad en datos que el aprendizaje de estos modelos requiere, son varios los riesgos de esta tecnología, que se extienden a cuestiones laborales y contractuales, de privacidad e identidad, derechos de autor o marcas, entre otros. De este modo, las empresas que los utilicen deberán protegerse frente a tales riesgos mediante pautas de gobernanza completas y claras.

En este sentido, Iria Calviño, socia, y Miguel Ángel Barroso, asociado sénior del despacho, analizaron las bases éticas y regulatorias de la IA creativa. Explicaron que “estamos ante un desafío y una oportunidad, y lo determinante es utilizarla teniendo en cuenta los límites legales y éticos de nuestra sociedad”. Y recordaron que “el ordenamiento jurídico de la UE ya recoge los principios éticos que nos regulan y vinculan - Carta de Derechos Fundamentales- y que también deben regir el marco ético de la IA". De ahí que, en su opinión, “muchos de los debates que parecen que plantean estas nuevas herramientas ya están aterrizados en el mundo jurídico”. Y añadieron que los principios éticos aplicables pueden concentrarse en cuatro grandes bloques relacionados con los derechos fundamentales: el respeto a la autonomía humana, la equidad e igualdad, la predicción del daño, y, finalmente, la transparencia




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad