Carpeta de justicia

LawAndTrends



 

La elección de un juez en Colombia de usar el chatbot para argumentar una decisión abrió la discusión sobre los peligros que puede acarrear el programa.

Hace unas semanas ChatGPT, prototipo de chatbot de inteligencia artificial desarrollado por la compañía OpenAIlogró aprobar un examen de Derecho de la Universidad de Minnesota, dando inicio a discusiones entre abogados y académicos sobre el papel que el programa puede tener dentro de la práctica jurídica.

El juez Juan Manuel Padilla García del Juzgado del Circuito Laboral #1 de Cartagena, Colombia, a finales de enero, confirmó una decisión de segunda instancia de una tutela que buscaba exonerar un joven autista de deudas de salud, en la que incluyó, en parte de sus argumentos, respuestas que le dio ChatGPT, convirtiéndose en el principal ejemplo de la utilidad del chatbot.

De acuerdo al documento de la sentencia, al chatbot se le hicieron cuatro preguntas en torno al caso, cuyas respuestas fueron la base para fundamentar la confirmación de la tutela. “El propósito de incluir estos textos producto de la IA no es en manera alguna reemplazar la decisión del juez. Lo que realmente buscamos es optimizar los tiempos empleados en redacción de sentencias, previa corroboración de la información suministrada por IA”, menciona el documento sobre los motivos que llevaron al uso del programa.

 
  Juan David Gutiérrez

¿Puede este programa de conversación automatizada funcionar como herramienta de apoyo legal? Las opiniones varían.

Juan David Gutiérrez, profesor asociado de la Facultad de Estudios Internacionales, Políticos y Urbanos de la Universidad del Rosario y quien abrió la discusión del caso de Cartagena en un hilo de Twitter, considera que en éste caso existe un intento de innovación jurídica sin entender cómo funciona la tecnología que se está utilizando, señalando con preocupación la confianza que el juez expresó de las respuestas dadas por el chatbot.

“Es evidente que no sabe cómo funciona el sistema, ya que no cuestiona que el programa, de manera estructural, le puede a responder de manera equivocada e incluso con información inventada y falsa”, argumenta Gutiérrez. El profesor cuenta que experimentó con ChatGPT, realizando las mismas cuatro preguntas que le hizo el juez García, y dieron respuestas donde se citaban a otras fuentes legales o no tenían el mismo sentido.

Después, Gutiérrez buscó cuestionar la justificación de esas respuestas, por lo que hizo preguntas sobre las sentencias de la Corte Constitucional aludidas en las respuestas primarias. “En una respuesta invocó una sentencia que existía, pero que realmente no trataba sobre el tema y en otra la sentencia la inventó totalmente, con decisiones y hechos que no ocurrieron”, enfatiza.

Loros estocásticos

Sebastián Dueñas, investigador del Programa de Derecho, Ciencia y Tecnología de la Universidad Católica de Chile (UC), apunta a que cuando se busca integrar una herramienta digital al trabajo jurídico se debe realizar un análisis de los riesgos asociados y en el caso de tratarse de una herramienta de IA, revisar con qué datos fue entrenado y para qué escenarios específicos busca ser usado.

 
Sebastián Dueñas  

“Considero que no se hizo un análisis de los riesgos asociados en este caso. El juez no mencionó en el documento puntos fundamentales como: por cuántas veces se realizaron estas consultas, si es que había otras preguntas que podía generar respuestas similares, o si se verificó que las preguntas dieran resultados distintos. No hubo una correcta evaluación del sistema”, opina Dueñas sobre el caso de Cartagena.

Por otro lado, para Juan David Gutiérrez el problema principal de ChatGPT es que es un modelo de lenguaje que predice un hilo de palabras a partir de unos textos con los cuales fue previamente entrenado. “No hay ningún razonamiento, ninguna capacidad de efectivamente identificar cuáles son las sentencias más pertinentes, programas así no son más que loros estocásticos que simplemente producen textos basados en las probabilidades de respuestas a preguntas, sin distinguir entre lo cierto y lo falso”, explica.

La clave se encuentra en las bases de datos con que se entrena las IA. Sebastián Dueñas destaca en tal caso que una mejor opción para los jueces colombianos que buscan ahorrar tiempo es hacer uso de herramientas legaltech que el poder judicial del país ya tiene acceso, como vLex, un buscador de jurisprudencia, el cual está entrando con una base datos exclusivamente legal.

“ChatGPT ha sido entrenado con básicamente toda la Internet hasta el 2021, por lo que hay que tener en cuenta que existen sesgos sobre el tipo de información que absorba la IA, como artículos de Wikipedia editados principalmente por hombres jóvenes, y yo imagino que no es el tipo de datos con que el poder judicial colombiano quisiera entrenar un algoritmo”, argumenta Dueñas.

El especialista de la UC concluye en que no recomendaría ChatGPT como soporte para los abogados ni los funcionarios de justicia, ya que no ha sido diseñado con datos exclusivamente legales. “El propio OpenAI advierte que hay que tener cuidado con las posibles alucinaciones que puede tener el sistema como la creación de sentencias falsas, lo que es algo que no podemos aceptar en una herramienta usada por el poder judicial”.

¿Un futuro regulado?

Microsoft se encuentra probando un sistema de chatbot en su buscador Bing que permita mejorar las consultas de sus usuarios, mientras que Google se encuentra desarrollando su propia IA de conversación llamada Bard. Carlos Amunátegui, profesor de derecho romano y teoría del Derecho e inteligencia artificial de la UC, considera que en este contexto de desarrollo de chatbots, si llegara a ocurrir un aumento en el uso de inteligencias artificiales en el trabajo jurídico, los abogados requerirán mayores conocimientos generales para evitar caer en errores al emplear estos algoritmos.

 
  Carlos Amunátegui

“Lo que se está acabando con este tipo de herramientas es el mundo del abogado especialista, la nueva generación de abogados tiene que ser de otro tipo, más humanistas y cultos, que puedan aportar no solamente conocimientos específicos de un nicho pequeño, sino que puedan tener una visión de conjunto”, opina Amunátegui.

Además, el profesor de la UC señala que si bien un programa te puede dar respuestas profesionales específicas, no podrán diseñar una estrategia jurídica para un cliente. “Solo piensan sobre lo que ya está y no pueden imaginar lo que aún no existe y debería existir, eso es lo que no se le puede dejar a una máquina, ya que imaginar nuevos modelos y soñar soluciones novedosas es una labor de humanos”.

Finalmente, será la regulación la que decida hasta qué punto los funcionarios judiciales podrán hacer uso de herramientas como ChatGPT. Juan David Gutiérrez, como ejemplo, escribió su propia política de uso de inteligencia artificial para sus estudiantes, las que considera extensible al poder judicial.

“Son cuatro principios: primero, el uso tiene que ser transparente, tienen que decir que usaron el bot; segundo, el uso tiene que ser informado, eso significa que tengo que saber cómo funciona esa herramienta y cuáles son sus limitaciones; el uso debe ser ético, uno debe ser capaz de distinguir que produce el sistema y que produce el funcionario; finalmente, el uso debe ser responsable, debo usar la herramienta para lo que corresponde y demostrar que yo contraste las respuestas que me dio el sistema con otras fuentes”.

Por otro lado, Amunátegui considera que la regulación no debería estar enfocado principalmente en el usuario sino en los creadores de estas herramientas. “Deberían asegurar de que el entrenamiento de este tipo de dispositivos sea limpio, con bases de datos abiertas y analizables, que carezcan de sesgo, o por lo menos que los tengan controlado”, concluye.

Reproducción autorizada por Idealex.press  Ver artículo original




No hay comentarios.


Hacer un comentario

He leido y acepto los términos legales y la política de privacidad