Carpeta de justicia

LawAndTrends



  • La Comisión presentó ayer los próximos pasos para generar confianza en la inteligencia artificial continuando el trabajo del grupo de expertos de alto nivel.

A partir del trabajo del grupo de expertos independientes nombrados en junio de 2018, la Comisión puso ayer en marcha una fase piloto con el fin de garantizar que las directrices éticas para el desarrollo y el uso de la inteligencia artificial puedan aplicarse en la práctica. La Comisión invita a la industria, institutos de investigación y autoridades públicas a probar la lista detallada de evaluación elaborada por el grupo de expertos de alto nivel, que complementa las directrices.

Los planes presentados ayer son un resultado esperado en el marco de la estrategia para la inteligencia artificial de abril de 2018, cuyo objetivo es aumentar las inversiones públicas y privadas hasta un mínimo de 20 000 millones de euros anuales en los próximos diez años, facilitar el acceso a una mayor cantidad de datos, fomentar el talento y garantizar la confianza.

El vicepresidente responsable del Mercado Único Digital, Andrus Ansip, ha afirmado lo siguiente: «Acojo con satisfacción el trabajo realizado por nuestros expertos independientes. La dimensión ética de la inteligencia artificial no es un lujo ni un añadido. Nuestra sociedad solo puede beneficiarse plenamente de las tecnologías si existe confianza. La inteligencia artificial ética es una propuesta beneficiosa para todos, que puede convertirse en una ventaja competitiva para Europa: liderar una inteligencia artificial centrada en el ser humano en la que la gente pueda confiar».

La comisaria responsable de la Economía y Sociedad Digitales, Mariya Gabriel, ha añadido: «Hoy damos un paso importante hacia la inteligencia artificial ética y segura en la UE. Tras un amplio y constructivo compromiso alcanzado por muchas partes interesadas, incluidas las empresas, el mundo académico y la sociedad civil, ahora contamos con unos fundamentos sólidos basados en los valores de la UE. Vamos a poner estos requisitos en práctica y, al mismo tiempo, fomentaremos un debate internacional sobre la inteligencia artificial centrada en el ser humano.»

La inteligencia artificial puede aportar beneficios a una amplia gama de sectores, como la asistencia sanitaria, el consumo de energía, la seguridad de los automóviles, la agricultura, el cambio climático y la gestión del riesgo financiero. La inteligencia artificial también puede ayudar a detectar el fraude y las amenazas de ciberseguridad y permite a las fuerzas y cuerpos de seguridad luchar contra la delincuencia con más eficacia. Sin embargo, también conlleva nuevos retos para el futuro del trabajo y plantea cuestiones jurídicas y éticas.

La Comisión propugna un enfoque en tres etapas: establecimiento de los requisitos esenciales para una inteligencia artificial fiable, lanzamiento de una fase piloto a gran escala para recabar los comentarios de las partes interesadas y búsqueda de un consenso internacional para la inteligencia artificial centrada en el ser humano.

1. Siete requisitos esenciales para lograr una inteligencia artificial fiable

La inteligencia artificial fiable debe respetar todas las leyes y reglamentos aplicables, así como una serie de requisitos: las listas de evaluación específicas tienen por objeto facilitar la verificación del cumplimiento de cada uno de esos requisitos fundamentales:

  • Intervención y supervisión humanas: Los sistemas de inteligencia artificial deben facilitar sociedades equitativas, apoyando la intervención humana y los derechos fundamentales, y no disminuir, limitar o desorientar la autonomía humana.
  • Robustez y seguridad: La fiabilidad de la inteligencia artificial requiere que los algoritmos sean suficientemente seguros, fiables y sólidos para resolver errores o incoherencias durante todas las fases del ciclo de vida útil de los sistemas de inteligencia artificial.
  • Privacidad y gestión de datos: Los ciudadanos deben tener pleno control sobre sus propios datos, al tiempo que los datos que les conciernen no deben utilizarse para perjudicarles o discriminarles.
  • Transparencia: Debe garantizarse la trazabilidad de los sistemas de inteligencia artificial.
  • Diversidad, no discriminación y equidad: Los sistemas de inteligencia artificial deben tener en cuenta el conjunto de capacidades, competencias y necesidades humanas, y garantizar la accesibilidad.
  • Bienestar social y medioambiental: Los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y aumentar la sostenibilidad y la responsabilidad ecológicas.
  • Rendición de cuentas: Deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de inteligencia artificial y de sus resultados.

2. Fase piloto a gran escala con los socios

En el verano de 2019, la Comisión pondrá en marcha una fase piloto en la que participará una amplia representación de partes interesadas. En la actualidad, las empresas, las administraciones públicas y las organizaciones ya pueden adherirse a la Alianza europea de la inteligencia artificial y recibir una notificación cuando comience el proyecto piloto. Además, los miembros del Grupo de expertos de alto nivel sobre inteligencia artificial ayudarán a presentar y explicar las directrices a los socios pertinentes en los Estados miembros.

3. Creación de consenso internacional para la inteligencia artificial centrada en el ser humano

La Comisión quiere llevar su enfoque sobre la ética de la inteligencia artificial a la escena mundial, ya que las tecnologías, los datos y los algoritmos no conocen fronteras. A tal fin, la Comisión reforzará la cooperación con socios afines, como Japón, Canadá o Singapur, y seguirá desempeñando un papel activo en las discusiones e iniciativas internacionales, incluidos el G7 y el G20. En la fase piloto también participarán empresas de otros países y organizaciones internacionales.

Próximas etapas

Los miembros del Grupo de expertos en inteligencia artificial presentarán los pormenores de su trabajo en la tercera edición del Día Digital, que se celebrará el 9 de abril en Bruselas. Tras la fase piloto, a principios de 2020, el Grupo de expertos en inteligencia artificial revisará las listas de evaluación para los requisitos clave, basándose en la información recibida. Partiendo de esta revisión, la Comisión evaluará los resultados y propondrá las próximas etapas.

Además, para garantizar el desarrollo ético de la inteligencia artificial, la Comisión, antes del otoño de 2019: pondrá en marcha un conjunto de redes de centros de excelencia especializados en investigación sobre inteligencia artificial; empezará a crear redes de polos de innovación digital; y junto con los Estados miembros y las partes interesadas, entablará debates para desarrollar y aplicar un modelo para el intercambio de datos y para hacer el mejor uso de los espacios comunes de datos.




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad