La abogacía se muestra interesada por la incorporación de innovación tecnológica a sus procesos de gestión.
Aun cuando, por temas organizativos y de estructura, esta sesión se organizó en un formato reducido a los asociados de ENATIC, fue retransmitida en streaming contando con un excelente alcance del que tan sólo las métricas del hashtag hablan por sí solas.
Retos y oportunidades del Big Data y la inteligencia artificial para la Abogacía.
Vivimos en un entorno hiperconectado en el que generamos y compartimos millones de datos en la red. Toda esta ingente cantidad de datos es explotada de forma cruzada y analizada por la ciencia del Big Data Analytics, consiguiendo revelar patrones que ayudan a explicar y predecir comportamientos y, lo más importante, a tomar decisiones estratégicas de negocio, de eficacia en la gestión empresarial, adaptables a la mejora de procesos, productos y servicios, a la predicción de intereses y subsiguiente segmentación de publicidad, etc. Valores todos ellos transversales que impactan directamente en la incorporación de la innovación en los procesos empresariales.
Un paso más supone la suma de la Ciencia del Big Data con la inteligencia artificial dando lugar al Deep learning o herramientas de redes neuronales cognitivas. Sistemas operativos capaces de aprender en base a patrones complejos de comportamiento detectados en los datos recopilados que nos extraen, en tiempo real, soluciones vitales para la toma de decisiones, facilitando así la mejora la competitividad y la eficacia en la gestión empresarial.
Es evolución. Es innovación. Es progreso. Nos genera beneficios, añade valor a nuestros servicios, optimiza nuestros recursos y, a su vez, como siempre, no carece de limitaciones físicas o lógicas de almacenamiento, financiación y de gestión, sino también éticas, regulatorias y riesgos en materia de ciberseguridad, protección de datos personales, propiedad, licencias, derechos de uso…
Oportunidades del Big Data para la abogacía.
En la jornada, se abordó el tema de las oportunidades que ofrece el Big Data para la abogacía de la mano de Alejandro López Parra, responsable de Inteligencia del Instituto Nacional de Ciberseguridad (INCIBE) quien explicó al detalle qué es Big Data y su evolución histórica partiendo de los principios de procesamiento local, escalabilidad horizontal, redundancia, paralelización y democratización en estrecha conexión con el juego de sus principales características “velocidad volumen, variedad, valor y veracidad”.
Se trató el tema de una inmensa cantidad de datos de diversa naturaleza, relacionados entre sí. Datos estructurados, con una longitud y formato definidos, almacenables en bases de datos relacionales (fechas números, IPs) y datos no estructurados, que carecen de longitud y formato definidos, no almacenables en BD relacionales (texto, imagen, audio, video) y semi-estructurados (XML, HTML, JSON extraídos de redes sociales, documentos legales, etc).
Una ingente cantidad de datos que, a su vez, crece exponencialmente, lo que impide su tratamiento óptimo en base a tecnologías tradicionales, dado que cuanto mayor es la capacidad de procesamiento mayor es el crecimiento de la tecnología analítica, mayor es la agilidad se le exige y mejor definida debe tenerse su finalidad, su utilidad y, en definitiva el valor que aporta para que cobre sentido. Pero es que, además, debemos estar seguros de que los datos sean veraces y cumplan con la normativa de seguridad, para que la información a extraer consiga tener como mínimo tanto valor veraz como el de los datos de los que partimos.
Tradicionalmente, el análisis de la información utilizado en estrategias de Business Intelligence ha venido siendo descriptivo, es decir, orientado a la verificación de datos con métodos deductivos. Hablamos de la analítica de negocio tradicional que nos permite obtener como resultado informes y métricas que nos describen una concreta situación en la que nos hallamos.
Un paso más radica en los análisis predictivos o prescriptivos orientados a descubrir conocimiento en base a métodos inductivos que utilizan técnicas de inteligencia artificial, aprendizaje automático, estadística y sistemas de bases de datos basadas en estadística, álgebra, etc propios de la denominada Minería de Datos (Data Mining) con el objetivo de extraer información de los datos y transformarla en una estructura comprensible y utilizable para la toma de decisiones estratégicas.
En definitiva, resultados de información trabajada que, aplicada al sector jurídico puede ayudarnos a la búsqueda masiva de información de referencia y evidencias que nos asistan en la preparación de los casos e incluso en la predicción de posibles pronunciamientos judiciales, además de poder orientar a nuestros clientes en la toma de decisiones societarias, monitorización ágil de información relevante, etc.
Aspectos y retos regulatorios y éticos de Big Data e Inteligencia Artificial
Por parte de Jorge Villarino, socio director de regulación de Vinces, introdujo los aspectos y retos regulatorios y éticos de Big Data e Inteligencia Artificial en materia de innovación, economía digital, privacidad (limitación de la finalidad y necesidad de los datos personales, proporcionalidad, pseudomización y minimización de los datos…) y seguridad; contaminación de información, sistemas de algoritmos y decisiones sobre las que no existe control ni transparencia, segregación, exclusión social y cultural, etc.
Sin ir más lejos, la reciente entrada en vigor del Reglamento General de Protección de Datos viene a obligar a un reforzamiento del principio de transparencia en la toma de decisiones individuales automatizadas en caso de un “tratamiento masivo de datos personales a gran escala”. Información no es lo mismo que datos personales, no todos los datos analizados en la bases de datos son datos personales (referidos a personas identificables) pero, cuando sí lo son, el reto se sitúa por una parte en obtener definiciones normativas concretas a conceptos indeterminados como el de “tratamiento masivo” para con ello, en su caso, determinar la aplicación de técnicas de anonimización y disociación con el objetivo de evitar la aplicación de la normativa de protección de datos, de tal forma que, de la aplicación del procedimiento resulte imposible asociar un dato con un sujeto identificable determinado. Técnicas que, a su vez, suponen un nuevo reto ya que derivan en superar pruebas de singularización o aislamiento, vinculación e inferencia “en virtud del estado de la técnica” y, con ello, de nuevo, situarnos en un escenario repleto de conceptos jurídicamente indeterminados y susceptibles de debate.
“Calisto”, generando valor a la información.
Finalmente, cuando se planteó esta jornada se intentó aborde de la mejor manera el cierre de este TICLawyers era acercándonos a una herramienta de inteligencia artificial y Big Data que nos permitiera valorar por nosotros mismos cómo puede añadir valor a la gestión de la información en el ámbito jurídico. Para ello se contó con Antonio Ortego y Alfonso García que presentaron y demostraron el funcionamiento y potencial de Calisto, herramienta de inteligencia artificial y Big Data desarrollada por hiberus Inteligencia Competitiva.
Calisto es una herramienta 100% española que, gracias al procesamiento del lenguaje natural, permite localizar, analizar e interpretar la información que buscamos de una manera rápida y eficaz. Una vez realizada la implantación, que según nos explicaron dura aproximadamente seis semanas, trabaja de forma autónoma y totalmente desasistida.
Calisto es capaz de almacenar en nuestro repositorio, toda la información – incluso desestructurada, es decir, documentos pdf, xls, doc, en audio, video, etc – que seamos capaces de imaginar. Además está información puede ser tanto interna como externa, es decir online y offline.
Una vez se encuentra en nuestro repositorio, el algoritmo semántico es capaz de encontrar la información que buscamos, con independencia del formato en el que se encuentre. A modo de ejemplo, se plateo el interés en contar con algún curso de formación sobre piratería internacional. Se realizó la búsqueda y se localizaron diferentes cursos, tanto en formato audiovisual como pdf. Lo sorprendente resultó que, una vez seleccionado un curso en formato video, Calisto cuenta con la posibilidad de realizar búsquedas semánticas dentro del propio vídeo. Por ejemplo, al teclear la palabra “terrorismo” en castellano mostró el número de veces que aparecía dicho término en el vídeo, permitiendo así seleccionar y visualizar el momento exacto en el que se pronunciaba, y ello a pesar de que el curso en concreto era en inglés. Este tipo de herramientas abre un campo para el sector jurídico muy interesante, tanto para el ámbito formativo, como para el ahorro de tiempos en gestión de contenidos, en la preparación de asuntos, en la visualización de juicios, declaraciones, etc.
Otra de las funciones que se mostraron fue la llamada vigilancia mediática. La herramienta permite, mediante la suscripción de alertas, rastrear un ilimitado número de webs buscando palabras o nombres de clientes, lo que sin duda resulta una utilidad muy práctica para la monitorización de Boletines Oficiales, diarios digitales, noticas en tv, radio etc. evitando que se escape cualquier información que pueda estar relacionada con algo de interés.
La potencialidad no se quedó aquí, si no que también mostraron la capacidad de análisis de que dispone “Calisto”, y la capacidad de generación de informes ad hoc, a partir de la información de que dispone en su repositorio. La herramienta es capaz de generar un Taxletter a partir de la información almacenada, así como de analizar las cuentas anuales de una compañía en menos de un segundo, mostrándonos los litigios que tenía abiertos, el estado de sus cuentas, la situación de sus expedientes en al CNMV, el comparado de partidas del balance, una función que reduce el análisis y edición de documentos extensos a segundos.
Sin duda una jornada de máximo interés en materia de incorporación de la innovación a la gestión de despachos.
No hay comentarios.