lawandtrends canal de whatsapp

LawAndTrends



María Carcaboso Abrié

Barcelona, 12 may (EFE).- Países como Italia han bloqueado el uso de ChatGPT recientemente por no respetar la ley de protección de datos de los consumidores, pero el doctor en Filosofía y profesor de Ética Miquel Bastons cree que prohibir herramientas de inteligencia artificial (IA) no soluciona los dilemas éticos que genera esta tecnología.

"La IA es fascinante, pero casi da vértigo por los retos que plantea", afirma en una entrevista con EFE Bastons (Sant Feliu de Pallerols, 1960), que también es doctor en Ciencias Económicas y profesor de Ética en la Universidad Internacional de Cataluña (UIC), en la que ha sido decano de la Facultad de Ciencias Económicas y Sociales.

Para Bastons, la solución a los "temores" que infunde la IA, como el impacto sobre los derechos y la privacidad o la falta de transparencia, entre otros, pasa por "educar, formar y regular", porque "sólo prohibir no sirve".

"La tecnología no es ni buena ni mala en sí misma y sus resultados dependen del uso que hagan de ella las personas. Podemos potenciar el desarrollo de la sociedad o fomentar la autodestrucción", advierte el doctor, cuyas publicaciones están centradas en la ética en la toma de decisiones en las organizaciones.

Por eso, Bastons, que también es codirector de la Cátedra en Dirección por Misiones y Gobierno Corporativo y director adjunto del Centro Interdisciplinario de Pensamiento (CIP) de la UIC, argumenta que "hace falta información, educación en valores y saber ejercer correctamente la libertad".

Bastons opta por ir hacia la regulación de esta tecnología y establecer reglas: "La IA es como un coche, nos permite ir más rápido, pero deben existir normas de circulación porque nos podemos estrellar si no las hay".

Y, según defiende, esa regulación "debería aplicarse tanto a los usuarios de herramientas de inteligencia artificial como a las empresas que las desarrollan, que no siempre son transparentes".

El profesor explica que él mismo preguntó al propio ChatGPT si siempre decía la verdad, a lo que la máquina respondió: "Como modelo de lenguaje, siempre genero repuestas basadas en datos con los que fui entrenado. Mi conocimiento se limita a los datos utilizados para mi entrenamiento y no puedo garantizar la precisión del conocimiento o la información actualizada".

"Hay cierta opacidad en cuáles son esos datos y de dónde proceden. Podrían, incluso, llegar a ser personales, por lo que deberían estar protegidos", opina Bastons.

¿ES INTELIGENTE LA INTELIGENCIA ARTIFICIAL?

El doctor en Filosofía se plantea "si la inteligencia artificial es inteligente", pues "hace operaciones mecánicas como calcular o traducir a una velocidad de vértigo, pero no puede ir al fondo de las cuestiones, carece de habilidades humanas y siempre hace falta una persona que valide lo que dice o hace la máquina".

Bastons considera "muy importante" no confundir la capacidad de redacción de las herramientas de IA con la veracidad de la información que ofrecen, porque "el buen redactado aparenta credibilidad aunque los datos proporcionados sean falsos".

También cree esencial "potenciar aquello que, como seres humanos, nos diferencia de las máquinas" y lo que más le preocupa en este sentido es que las personas no sean capaces de darse cuenta de que "la IA potencia, pero no sustituye".

"Las personas tomamos decisiones en función de nuestra escala de valores y buscamos la verdad, pero las herramientas de inteligencia artificial no pueden establecer esta escala, se basan únicamente en datos y reglas del lenguaje", subraya.

Por este motivo, el filósofo apela a "no confiar nuestras decisiones a una IA", pues "no pueden hacer valoraciones ni persiguen la verdad".

"Si esta tecnología no se regula, podemos destruirnos a nosotros mismos y como sociedad, porque estamos ante una herramienta con mucha potencialidad en determinadas operaciones intelectuales. Es como si no se regula la energía nuclear, nos puede hacer mucho daño porque es muy potente", concluye Bastons.




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad