- El 76% de los españoles ha recibido algún tipo de mensaje, correo electrónico o llamada de teléfono que era una estafa, según FICO. “Antes era fácil detectar un email fraudulento porque había errores gramaticales. Ahora, herramientas como ChatGPT escriben textos impecables”, advierte Felipe García, abogado y socio del despacho Círculo Legal Madrid.
- “La IA mal utilizada supone un riesgo enorme para las compañías, pues no solo busca estafar bajo el paraguas de una entidad respetable, sino que deriva que en un serio problema de reputación”, admite el experto, que recomienda a las empresas revisar el impacto de la IA en sus análisis de riesgos
La inteligencia artificial (IA) es un recurso poderoso capaz de elevar la productividad y la eficiencia en las empresas, pero también tiene una cara B: la que se ampara en ella para cometer un fraude. Un estudio de FICO España indica que el 76% de los españoles ha recibido algún tipo de mensaje, correo electrónico o llamada de teléfono que en realidad era una estafa. Lo sorprendente es que un 8% acabó realizando el pago a pesar de haber sido alertado por su banco y tan solo el 19% informó a su entidad de la suplantación.
“Antes era fácil detectar un email fraudulento porque había errores gramaticales o frases que resultaban sospechosas. En la actualidad, incluso la propia Europol alerta de la habilidad de ChatGPT para escribir textos impecables que los delincuentes emplean para hacer phishing y otras modalidades de fraude”, advierte Felipe García, abogado y socio del despacho Círculo Legal Madrid. Tanto este sistema de IA generativa como otros capaces de crear deepfakes muy realistas elevan la urgencia de reforzar la seguridad en el ámbito corporativo a través del compliance, una herramienta poderosa capaz de prevenir estos ataques.
El Abogado admite que esta tecnología supone “un problema real para las empresas y los ciudadanos, con lo cual es necesario una regulación en cuanto al uso y desarrollo de la misma, sobre todo, en la IA generativa, limitando su uso”, esto es, según el Letrado “es un verdadero problema, cada vez es más frecuente, por ejemplo, la suplantación de identidad para abrir cuentas y disponer de cantidades importantes de dinero, que en muchas ocasiones terminan con el afectado en un banquillo, imputándole un delito de estafa, se utilizan para ello técnicas como el spooling facial, o incluso la imitación de la voz, si no se le pone coto al uso de esta inteligencia, los problemas de fraude se van a incrementar exponencialmente en los próximos meses, la UE debe reaccionar rápido así como los Estados Miembros, como siempre, la realidad va por delante de la regulación, y en muchas ocasiones por delante de las Fuerzas y Cuerpos de Seguridad del Estado, que tampoco tienen margen de maniobra en muchos de los casos que pasan por sus manos.
La importancia del compliance
La solución a estas amenazas reside en la prevención y en la formación. El Letrado insiste en que “las empresas deben revisar sus políticas de riesgo y, si ven que el fraude puede crecer más, realizar las inversiones correspondientes para prevenir este tipo de comportamientos irregulares”. En este sentido, casi el 5% de las transacciones digitales realizas en España en la primera mitad del año fueron sospechosas de fraude, según Transunion.
Para García, el destino de esta inversión debe abarcar tanto medio técnicos como humanos. “Hay que contar con equipos liderados por personas que impulsen planes de formación específicos en evitar fraudes, en todas las modalidades, de nada sirven los sistemas, modelos o programas si detrás, no hay personas que involucren a la organización en acciones de formación específicas para evitar el fraude en todas sus modalidades, sin duda alguna, se erige como protagonista principal una figura clave para las organizaciones, el Compliance Officer, ¿Quién mejor para acometer esos restos?
Regulación necesaria
Para finales de año, es de esperar que se alcance un acuerdo en el Consejo Europeo respecto al lanzamiento de la Ley de Inteligencia Artificial de la UE, una norma pionera que establecerá obligaciones para proveedores y usuarios en función del nivel de riesgo y que parece que va a poner a UE en la cabeza de la regulación de esta inteligencia.
Este reglamento es, en opinión de García, “muy necesario para regular el desarrollo y uso de la IA, como tecnología líder, disruptiva y muy útil, pero con una potencialidad lesiva de indudable calado”.
El portavoz de Círculo Legal Madrid recuerda que España tendrá un regulador específico: la Agencia Estatal para la Supervisión de la Inteligencia Artificial (Aesia), un organismo estatal con sede en A Coruña cuya entrada en funcionamiento está prevista antes de que acabe 2023.
“Se va a implementar un sandbox para testar esta regulación en las empresas que se alojen en este nuevo entorno desregulado”, comenta García, añadiendo que “la IA no es sólo protección de datos, dado que afecta a otros derechos fundamentales. Habrá que ver muy bien su implementación y cómo se coordina con el regulador existente en materia de privacidad, que es la Agencia Española de Protección de Datos (AEPD)”.