Óscar Barba
Cofundador y CTO de Coinscrap Finance
El papel de las fintech en la introducción de algoritmos explicables
Como proveedores de grandes bancos, sabemos que la opacidad de los modelos de Inteligencia Artificial puede generar desconfianza y preocupación entre los responsables de la toma de decisiones en el sector. Los gerentes de riesgos necesitan comprender cómo funciona la IA y qué factores influyen en sus resultados para poder evaluar y mitigar los riesgos asociados.
La explicabilidad es fundamental para garantizar que las decisiones basadas en modelos de IA sean justas, éticas y fiables. Los bancos deben poder justificar y explicar cómo se toman las decisiones y qué información se utiliza para llegar a ellas. Esto es especialmente importante cuando las decisiones pueden tener un impacto significativo en los derechos individuales y en la seguridad financiera de las personas.
Breve historia de la IA explicable: concepto y nacimiento de una nueva área de estudio
El término fue acuñado por primera vez por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) en 2016. Según explican en su página web:
“Los nuevos sistemas de aprendizaje automático tendrán la capacidad de explicar su justificación, caracterizar sus fortalezas y debilidades y transmitir una comprensión de cómo se comportarán en el futuro. La estrategia para lograr ese objetivo es desarrollar técnicas de aprendizaje automático que produzcan modelos más explicables. Estos modelos se combinarán con técnicas de interfaz humano-ordenador de última generación capaces de traducir modelos en diálogos de explicación comprensibles y útiles para el usuario final.”
Además, según establece el reglamento europeo GDPR (UE, 2016):
“La existencia de una toma de decisiones automatizada debe contener información significativa sobre la lógica involucrada, así como la importancia y las consecuencias previstas de este procesamiento para el interesado”.
Con esta norma se protege el derecho del usuario a recibir información significativa sobre la lógica aplicada en la toma de decisiones automatizada. Para lograrlo, los científicos de datos debemos diseñar modelos precisos y ser capaces de explicar las predicciones de los algoritmos de manera sencilla.
Beneficios de la explicabilidad de la IA en la gestión de riesgos bancarios
Al adoptar esta tecnología, los bancos pueden impulsar la innovación y el avance tecnológico en la industria y lograr una gestión de riesgos más efectiva y rentable. Veamos ahora cuáles son exactamente los beneficios clave para las entidades financieras:
1. Mayor comprensión y confianza en el proceso
La explicabilidad de la IA brinda a los equipos de gestión de riesgos una mayor comprensión de cómo se toman las decisiones y qué factores influyen en ellas. Esto les permite tener una visión más clara de los riesgos asociados y tomar decisiones informadas para minimizarlos.
Además, la explicabilidad también ayuda a generar confianza tanto dentro de la organización como entre los reguladores y clientes.
2. Aumento de la inclusión financiera de la población
Los modelos de IA pueden verse afectados por sesgos y discriminación, lo que puede llevar a decisiones injustas. La IA explicable permite a los equipos de gestión de riesgos identificar y abordar estos sesgos de manera más efectiva.
Al comprender qué datos y variables influyen en las decisiones, los equipos pueden ajustar y mejorar los modelos para garantizar una mayor equidad y aumentar el número de a través de la bancarización de personas excluidas del sistema sin motivo.
3. Mejora en la toma de decisiones y la gestión de riesgos
La explicabilidad de la IA proporciona al departamento de riesgo una visión más profunda de los factores que influyen en las decisiones y los resultados. Esto permite tomar decisiones informadas y mejorar su gestión global.
Al comprender cómo los diferentes datos y variables afectan a los resultados, los equipos pueden ajustar sus estrategias y políticas para optimizar su desempeño.
4. Cumplimiento de la normativa vigente en cada momento
La IA explicable es esencial para cumplir con los requisitos normativos y legales en la industria bancaria. Los reguladores exigen cada vez más transparencia y explicabilidad en los modelos de IA utilizados por los bancos.
Al implementar modelos de IA explicables, las entidades ya pueden demostrar un cumplimiento normativo impecable, evitando sanciones y multas.
5. Mejora de la experiencia del cliente e incremento de su satisfacción
El uso de estas técnicas también dispara el engagement de los usuarios de banca. Comprender el proceso de toma de decisiones y saber qué factores influyen en ellas, permite a los clientes tener más información sobre los productos y servicios que tienen contratados.
Esto crea confianza y transparencia en la relación banco-usuario, mejorando la satisfacción con el servicio y fortaleciendo la lealtad a la marca.
También puede que estés buscando cómo se están mejorando los productos financieros a través de la IA
Implementación de la explicabilidad de la IA en el sector bancario
Tras esta lista de ventajas, ¿estás considerando introducir la inteligencia artificial explicable (XAI) en su institución bancaria?
Si la respuesta es sí, aquí te dejo algunos pasos clave.
Para empezar, es crucial establecer un marco de gobernanza de la IA que defina los estándares y las pautas para el desarrollo, implementación y monitorización de modelos de IA en la gestión de riesgos bancarios. Este marco debe incluir políticas y procedimientos claros para garantizar la transparencia y la explicabilidad de los modelos de IA.
Por otro lado, debemos tener en cuenta que existen diversas técnicas y herramientas disponibles para mejorar la explicabilidad de los modelos de IA en la gestión de riesgos bancarios. Algunas de estas técnicas incluyen el uso de valores de Shapley y el análisis de sensibilidad para comprender la contribución de diferentes variables en las decisiones tomadas por los modelos de IA.
También es importante capacitar al personal en los conceptos y técnicas de explicabilidad de la IA. Los equipos de gestión de riesgos deben comprender cómo funcionan los modelos de IA, qué factores influyen en sus decisiones y cómo interpretar los resultados. Esto les permitirá tomar decisiones informadas y explicar los resultados de manera efectiva a otras partes interesadas.
No olvidemos que la implementación de modelos de IA explicables en la gestión de riesgos bancarios es un proceso continuo. Los equipos al cargo deben supervisar y evaluar regularmente la precisión de los modelos de IA.
Esto les permite identificar áreas de mejora y ajustar los modelos según sea necesario para garantizar una gestión efectiva.
Sobre el autor
Óscar Barba es cofundador y CTO de Coinscrap Finance. Es un experto Scrum Manager con más de 6 años de experiencia en la recolección y análisis semántico de datos en el sector financiero, clasificación de transacciones bancarias, deep learning aplicado a los sistemas de análisis del sentimiento bursátil y a la medición de la huella de carbono asociada a datos transaccionales.
Con amplia experiencia en el sector bancario y asegurador, Óscar está finalizando su Doctorado en Tecnologías de la Información Es Ingeniero y Máster en Ingeniería Informática por la Universidad de Vigo, Máster en Comercio Electrónico por la Universidad de Salamanca, Certificado Scrum Manager y Project Management por el CNTG, Certificado en Arquitectura SOA y Servicios Web por la Universidad de Salamanca. Recientemente ha obtenido la certificación ITIL Fundamentals, un reconocimiento a las buenas prácticas en la gestión de servicios TI.