Estrasburgo (Francia), 11 may (EFE).- Las comisiones de Mercado Interior y de Libertades Civiles del Parlamento Europeo acordaron este jueves su posición para negociar nuevas normas para mitigar los posibles riesgos que pueden generar los sistemas tecnológicos como ChatGPT, tales como la distribución de noticias falsas o la violación de los derechos de autor.
Son una serie de normas que se incluyeron en la ley de inteligencia artificial que se está negociando en Bruselas y que la comisión parlamentaria aprobó por 84 votos a favor, siete en contra y doce abstenciones.
De incorporarse íntegras estas disposiciones a la ley final, los desarrolladores de estos sistemas tecnológicos que quieran introducirlos en el mercado tendrán que demostrar que han reducido los riesgos que puedan generar a la salud, a los derechos fundamentales y al sistema democrático y someterse además al análisis de expertos independientes.
Además, los usuarios de sistemas de inteligencia artificial que generen o manipulen vídeos, imágenes o sonidos que puedan inducir erróneamente a otras personas a pensar que son auténticos o verídicos deberán informar al resto de ciudadanos que el contenido es falso.
Asimismo, los creadores de la tecnología tendrán que publicar "un resumen suficientemente detallado" sobre los datos protegidos con derechos de autor que utilizan para entrenar a los sistemas de inteligencia artificial.
Asimismo, las herramientas se tendrán que diseñar de tal forma que a lo largo de su vida útil tengan "niveles apropiados" de rendimiento, previsibilidad, interpretabilidad, corregibilidad, seguridad y ciberseguridad.
"Con estas medidas, actuamos fuertemente ante estos retos", afirmó el ponente de la ley, el eurodiputado socialdemócrata italiano Brando Benifei.
Más allá de prever reglas específicas para estos sistemas autónomos de generación de contenido, la ley de inteligencia artificial prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos -salvo para prevenir delitos y localizar a posibles víctimas- y veta los modelos que se sirvan de técnicas subliminales para alterar de manera "sustancial" el comportamiento de una persona, sin que sea consciente de ello.
Además, califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE.
Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios.
La Eurocámara quiere que las empresas que incumplan la normativa puedan pagar una multa de hasta el 7 % de su facturación anual mundial.
Está previsto que el pleno del Parlamento Europeo confirme su posición negociadora para esta norma el próximo mes de junio y la Eurocámara tendrá que negociar después con la Comisión Europea y el Consejo de la UE el texto definitivo de la ley de inteligencia artificial.
No hay comentarios.