lawandtrends canal de whatsapp

LawAndTrends



La Unión Europea (UE) ha avanzado de manera notable en la regulación de la inteligencia artificial (IA) al implementar la Ley de IA, vigente desde agosto de 2024. Este reglamento tiene como objetivo equilibrar el progreso tecnológico con la salvaguarda de los derechos fundamentales, presentando tanto beneficios como retos para desarrolladores, empresas y ciudadanos. Pese a esta regularización, son muchas las dudas que se plantean en torno a la utilización de la IA en el plano empresarial. Desde Metricson, la boutique legal líder especializada en startups y empresas tecnológicas, se analizan los retos legales y éticos asociados al uso de esta tecnología en constante evolución.

“La inteligencia artificial está transformando la forma en que las empresas crean y utilizan contenidos, pero también está generando preguntas clave sobre la autoría, el cumplimiento normativo y los riesgos asociados”, señala Estefanía Asensio, abogada especialista en propiedad intelectual e industrial, reputación on-line e inteligencia artificial y añade “el marco legal resulta extenso y complejo, y entender sus implicaciones es fundamental para cualquier empresa que quiera aprovechar esta tecnología sin exponerse a la comisión de infracciones que den lugar a la imposición de sanciones”.

Autoría en la era de la IA: una cuestión abierta

Una de las principales incertidumbres es la atribución de la autoría de las obras generadas por IA. Según Metricson, esta cuestión varía dependiendo de si:

  • La IA ha creado la obra de forma autónoma, sin intervención humana relevante.
  • La IA se ha utilizado como una herramienta para facilitar la creación por parte de una persona física.

Asensio explica que, en el caso de las obras generadas de manera autónoma, “la legislación actual, como el artículo 5 del TRLPI, atribuye la autoría exclusivamente a personas físicas (y jurídicas en los casos determinados por la ley). Esto plantea ciertos interrogantes jurídicos cuando no hay un autor humano identificable, ya que la IA, según nuestra normativa, no puede ser considerada como sujeto de derechos”.

En su momento, algunas organizaciones como la Brunel Law School y Brunel Centre for AI manifestaron que “la IA no es verdaderamente autónoma, ya que depende de los datos y la configuración proporcionados por los humanos”. No obstante, este debate quedó relegado al pasado, ya que, actualmente, hay múltiples ejemplos de que una IA por sí misma es capaz de crear de forma autónoma invenciones. En consecuencia, para que una obra pueda ser protegida por derechos de autor debe existir una intervención humana significativa, así como deben concurrir los requisitos establecidos por el TRLPI.

Uso responsable y límites legales

Metricson enfatiza la necesidad de cumplir con las normativas existentes al utilizar IA, especialmente en áreas sensibles como derechos de autor, protección de datos y derechos fundamentales. Estefanía Asensio destaca que “los usuarios deben evitar el uso de sistemas de IA para generar contenido que infrinja derechos de terceros como, por ejemplo, derechos de imagen, uso de material difamatorio o que den lugar a discursos de odio” y sobre todo enfatiza que “en todo caso, su uso debe garantizar que los datos utilizados cumplan con la normativa aplicable vigente, como el RGPD”.

Además, Metricson subraya que los prompts —las instrucciones que los usuarios dan a la IA— también ha generado incertidumbres legales a la hora de determinar si pueden o no ser protegibles mediante derechos de autor.

“Los prompts son un elemento crítico en el proceso de creación con IA, actuando como catalizadores, guiando en la creación de contenidos”. Sin embargo, apunta Asensio que “aunque, evidentemente, no existe regulación al respecto, éstos podrían ser objeto de protección si cumplen con los requisitos establecidos por el TRLPI, como los de originalidad y creatividad”.

Riesgos asociados al uso de IA

La implementación de sistemas de IA no está exenta de riesgos. Entre los más destacados, Metricson señala:

  • Sesgos en los datos: La calidad de los datos de entrada es esencial para evitar resultados discriminatorios o inexactos.
  • Uso indebido: La modificación de un sistema de IA de terceros puede transferir la responsabilidad al usuario o “responsable del despliegue”, especialmente si se aparta de la finalidad original del sistema.
  • Intromisiones a derechos fundamentales: Tecnologías como los deepfakes pueden implicar vulneraciones del derecho al honor y la intimidad personal y propia imagen.

Para mitigar estos riesgos, Metricson recomienda implementar sistemas de gestión de riesgos a lo largo del ciclo de vida de la IA, realizar evaluaciones de impacto específicas y desarrollar procedimientos internos claros para la autorización y uso de la IA en las empresas.

Un marco ético y legal en evolución

“La inteligencia artificial abre un mundo de posibilidades, pero también de responsabilidades”, concluye Asensio. “Es crucial que las empresas evalúen cada caso de uso desde una perspectiva legal y ética, garantizando que las decisiones relacionadas con la IA sean responsables, transparentes y cumplan con las normativas aplicables”. Con el rápido avance de la IA, Metricson reafirma su compromiso de asesorar a las empresas en este ámbito, asegurando que puedan aprovechar esta tecnología sin comprometer sus valores ni incurrir en riesgos legales.




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad