lawandtrends canal de whatsapp

LawAndTrends



El uso creciente de la Inteligencia Artificial (IA) en compañías de diagnóstico y tratamiento médico, en decisiones de inversión y finanzas y en vehículos autónomos, entre otros sectores, genera cada vez más debates sobre la protección de los sistemas (máquina o software) y sus resultados (obras), convirtiéndose la posibilidad de patentarlo, protegerlo o convertirlo en secreto empresarial, en algunas de las peticiones de asesoría hacia los despachos de abogados. En ese debate sobre qué proteger y cómo hacerlo, surgen posibles problemas éticos o morales de convivencia que puede generar el uso de la IA.

 

Por ese motivo, el despacho internacional de abogados Bird & Bird, celebró ayer el evento “Inteligencia Artificial: Propiedad intelectual y cuestiones de responsabilidad”, en el que Raúl Bercovitz y María Fernández, Of Counsel y Associate, respectivamente, del Dpto. de Propiedad Intelectual e Industrial, y Pablo Berenguer, Counsel y Codirector del Dpto. de Derecho Comercial y TI, han aclarado algunos aspectos del complejo sistema regulatorio desde el punto de vista de la protección de los sistemas de inteligencia artificial y sus resultados, además de las responsabilidades generadas por el funcionamiento de los sistemas de IA.

Los sistemas basados en Inteligencia Artificial traen aparejados sorprendentes avances tecnológicos que implican nuevas responsabilidades y que suponen, a día de hoy, enormes desafíos tanto para los individuos, como para las empresas y la sociedad.

Uno de esos desafíos es la protección de la tecnología, temática que María Fernández, Associate del Dpto. de Propiedad Intelectual e Industrial, ha abordado, explicando las maneras en las que puede realizarse: a través de patentes, si cuentan con un efecto técnico o con sistemas de protección de software puro sin efecto técnico, con depósito de Propiedad Intelectual. “Hay muchas patentes que protegen tecnología de Inteligencia Artificial en el campo de la medicina. Las máquinas, en este ámbito, pueden por ejemplo reconocer imágenes de diagnóstico médico mejor que un cerebro humano. Mientras que nuestra capacidad de computación es limitada, una máquina, con un volumen de datos adecuado, puede reconocer mucho más”, ha ejemplificado.

Además, ha señalado que “según las Directrices de la EPO la Inteligencia Artificial se asimila a las invenciones implementadas en ordenador y aunque los algoritmos como tal, no se pueden proteger, si se integran en un sistema que tenga una aplicación práctica, un uso de medios técnicos o dispositivos, sí se puede proteger”. En este sentido, la Ley de Secretos Empresariales, aprobada en febrero de 2019, entra en acción ya que, según Fernández, “si la tecnología no reúne los requisitos para formar parte de una patente o es complicado que un tercero la conozca o replique mediante ingeniería inversa, puede mantenerse como secreto”, destaca.

Sin embargo, no todo es susceptible de ser protegido y por ello Raúl Bercovitz, Of Counsel del Dpto. de Propiedad Intelectual e Industrial, ha analizado el contenido de los sistemas que podrían protegerse, destacando su uso creciente en informes cortos, tales como informes de bolsa, meteorológicos, noticias sobre resultados deportivos, etc. “Son informaciones muy concretas y se pueden usar sistemas de IA con resultados muy eficientes”, ha asegurado.

Sin embargo, Bercovitz, ha planteado el debate sobre si se pueden proteger estos sistemas con la legislación actual o la futura, llegando a la conclusión de que “la legislación no es muy clara sobre si debe haber una creación humana para permitir una protección legal. Mientras que la Ley de Patentes o de Diseño Industrial, o el modelo comunitario, no dicen nada sobre este aspecto, la Ley de Propiedad Intelectual simplemente habla de autor, sin especificar más”.

Posibles problemas del uso de la IA

Derivado del uso de la tecnología, surge el tema de las responsabilidades civiles que pueden surgir de la utilización de ingeniería artificial. Se trata de un campo muy amplio en el que diferentes expertos y reguladores, tanto a nivel nacional como europeo están comentando y tratando ya que no hay una línea clara de respuesta.

Según Pablo Berenguer, Counsel del Dpto. de Derecho Comercial y IT, la legislación actual no se ajusta bien a las características propias de la IA y explica que “no se ajusta bien por la naturaleza y el carácter autónomo de la máquina. Si la máquina tiene capacidad de autoaprendizaje y a su vez eso provoca que las decisiones no sean previsibles, eso no encaja ni con las normas de culpa ni con las normas de productos defectuosos”.

Así, Berenguer ha explicado que en un nuevo régimen de responsabilidad civil se necesita una armonización a nivel europeo, basado en principios éticos europeos. “La Unión Europea debe ser capaz de ofrecer una legislación centrada en la dignidad de toda persona, que además suponga una ventaja competitiva y no un freno a la innovación y el desarrollo. La UE tiene el reto de entender a los países que llevan la delantera y ser capaz de darles respuesta”, ha señalado. En definitiva, “la responsabilidad tiene que tender a ser objetiva y por riesgo, sin culpa y buscándose una protección de los perjudicados”, ha concluido.




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad