Bilbao, 3 oct (EFE).- Una investigación de las psicólogas de la Universidad de Deusto Lucía Vicente y Helena Matute aporta evidencia de que las personas pueden heredar sesgos de la inteligencia artificial (IA).
Según ha informado esa institución universitaria bilbaína, los resultados de esta investigación han sido publicados en la revista Scientific Reports y su hallazgo más interesante es que las personas podrían heredar sesgos de la IA.
Existen numerosas pruebas de que la inteligencia artificial hereda y amplifica los sesgos humanos y las investigadoras de Deusto han concluido que, también a la inversa, las personas pueden reproducir el sesgo de la inteligencia artificial y, de esa manera, se puede "correr el riesgo de entrar en un bucle bastante peligroso".
En los experimentos realizados por estas investigadoras, los voluntarios realizaron una tarea de diagnóstico médico. La mitad de los participantes tuvieron recomendaciones de una IA sesgada (cometía un error de forma sistemática), mientras la otra mitad, el grupo de control, no tuvo ningún tipo de asistencia.
Tanto la inteligencia artificial utilizada, como la tarea de diagnóstico y la supuesta enfermedad, fueron una simulación.
Las recomendaciones sesgadas de la IA influyeron sobre las decisiones de los participantes que realizaron la tarea con ayuda, pues acabaron cometiendo el mismo error que la IA, a diferencia de los participantes del grupo de control, que no cometieron el error.
El resultado más relevante fue que, en una segunda fase cuando la IA ya no estaba presente, los voluntarios continuaron cometiendo el mismo error sistemático que cometía la IA, cuando pasaron a realizar la tarea de diagnóstico sin asistencia.
De esa manera, "los participantes que recibieron al principio la ayuda de la IA sesgada reprodujeron el sesgo en un contexto en el que ya no estaba presente la inteligencia artificial, evidenciando así un sesgo heredado". Esto no ocurría en los participantes del grupo de control, que habían realizado desde el primer momento la tarea sin ayuda.
Estos resultados muestran que "la información sesgada proporcionada por una IA puede ejercer un impacto negativo perdurable en las decisiones de las personas", han avisado las psicólogas.
El hallazgo señala la necesidad de más investigación psicológica y multidisciplinar sobre la interacción IA-humanos y que "también se hace necesaria una regulación basada en evidencia que garantice una IA ética y fiable, que no tenga en cuenta sólo los aspectos técnicos, sino también los aspectos psicológicos de la relación entre IA y humanos", ha indicado la Universidad de Deusto.
No hay comentarios.