Óscar Barba
Cofundador y CTO de Coinscrap Finance
Analizamos la primera Ley de IA del mundo
Según recoge el comunicado de prensa, los eurodiputados han querido asegurarse de que las empresas, especialmente las PYME, puedan desarrollar soluciones de IA sin la presión de los gigantes de la industria. Para ello, se sirve de sandboxes regulatorios y pruebas reales, que serán establecidas por las autoridades nacionales para desarrollar y capacitar la IA antes de su puesta en marcha. El acuerdo, que llegó tras 38 horas de discusiones, aún no ha sido revelado completamente, pero se aprecian discrepancias respecto a la propuesta con la que la UE estuvo trabajando durante los últimos dos años.
Sea como fuere, Europa se ha convertido en el primer continente que establece unas directrices claras para el uso de la IA. ¿Qué va a significar esto para nuestra economía? ¿Nos hará más competitivos o todo lo contrario? La UE deja claro que pretende fomentar la inversión y la innovación, pero la mayoría de las disposiciones de la Ley de IA tardarán todavía unos años en entrar en vigor y muchos se han manifestado ya en contra de la norma.
Veamos en detalle cuáles son sus puntos fuertes y débiles:
Pros y contras de la nueva regulación europea de IA
Pros de esta regulación de la inteligencia artificial
Aunque no hayan proporcionado todos los datos, es probable que la regulación se aplique principalmente a proveedores e implementadores de sistemas de IA. Se ha confirmado que la ley no se aplicará a aquellos sistemas utilizados exclusivamente con fines militares, de defensa, innovación o investigación.
El enfoque basado en el riesgo que ha adoptado la UE, clasifica los sistemas de IA en cuatro categorías según sus casos de uso: riesgo inaceptable, alto riesgo, riesgo limitado y mínimo/sin riesgo. La ley se centrará probablemente en los sistemas de IA de riesgo alto. Los sistemas que representen un riesgo inaceptable, serán prohibidos.
En esta última categoría se incluyen los sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual o raza), reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, puntuación social basada en el comportamiento o en características personales o ciertas aplicaciones de vigilancia policial predictiva, entre otros.
Otra de las garantías que acompañan a la nueva ley, se refiere a los chatbots y los sistemas que generan deep fakes, que estarán sujetos a obligaciones de transparencia. Esto incluye informar a los usuarios de que están interactuando con IA y etiquetar contenido de audio, video, texto e imágenes generados o manipulados artificialmente.
Contras de la Ley Europea de IA
Tal y como recoge elespañol.com, existen también voces críticas con el acuerdo. La Asociación de la Industria de la Computación y las Comunicaciones (CCIA Europa) advierte que, sin mejoras técnicas significativas en las próximas semanas, Europa podría perder una oportunidad única respecto al uso de la AI.
La patronal destaca que el texto se aleja del enfoque propuesto por la Comisión, que priorizaba la innovación sobre la regulación excesiva. Señalan que ciertos sistemas de inteligencia artificial de bajo riesgo estarán ahora sujetos a requisitos estrictos sin una justificación adecuada, mientras que otros serán completamente prohibidos. Esto podría resultar en una migración de empresas y de talento, que buscarán oportunidades para desarrollarse en otros lugares.
Mientras las empresas cuestionan las restricciones adicionales del nuevo texto, la comunidad académica critica precisamente lo contrario. Un sector se queja de ciertas lagunas legales que permitirán a los desarrolladores definir el alto riesgo, mientras que otro acusa a los legisladores de dejar en manos de los tribunales la garantía de los derechos fundamentales de los ciudadanos más vulnerables.
Quizá te interese conocer el estado actual de la regulación del open banking en todo el mundo.
La importancia de la autoría protegida, suplantación de identidad y protección de la infancia
Uno de los ciberdelitos más preocupantes que nos trae el uso indiscriminado de la IA es el acoso a menores. Recientemente veíamos como unos jóvenes de un pequeño pueblo de Badajoz utilizaban una aplicación móvil para “descubrir” a varias de sus compañeras, y las imágenes comenzaron a circular de forma masiva. La madre de una de las afectadas informó a la Policía, que identificó rápidamente a varios involucrados.
Los cuerpos habían sido creados con inteligencia artificial pero las caras eran reales. Este incidente generó reflexiones sobre el alcance de las nuevas herramientas. Los ciberdelincuentes también pueden suplantar la identidad de sus víctimas utilizando audios subidos a las redes sociales. Es importante que la regulación tenga en cuenta la protección de la autoría de estos y otros contenidos.
Con todo esto en mente, veamos cómo puede afectar la norma a nuestro sector:
Trazabilidad de resultados: las entidades financieras pueden sentirse seguras
There is no doubt that banks and insurance companies will find themselves more comfortable working in regulated environments, with traceability of results. The new AIs will also have a point of explainability.
Podemos intuir algo por el hecho de entrenarla, pero ahora vamos a poder obtener ciertos parámetros al lado de su decisión. Una especie de claves de lo que influye en su output.
¿Qué quiere decir esto?
Hoy por hoy no sabemos qué pasa “dentro” de la inteligencia artificial.
A mediados de año CaixaBank hizo pública la puesta en marcha de un equipo de más de 100 personas enfocadas en el desarrollo de aplicaciones con IA generativa. Sin regulación, la realidad es que trabajan en el fango. Por eso es tan importante tener un marco regulatorio que nos ayude a todos los que desarrollamos herramientas innovadoras a avanzar en la misma dirección.
Esto no significa que se elimine la creatividad o la posibilidad de lanzar herramientas originales y únicas. Al contrario. Contar con aliados tecnológicos va a ser la tabla de salvación para el sector financiero. En Coinscrap Finance llevamos años desarrollando módulos que incorporan inteligencia artificial para algunas de las principales entidades bancarias y aseguradoras de la industria.
Para ello, colaboramos con la Universidad de Vigo y el Centro para el Desarrollo Tecnológico y la Innovación (CDTI), lo que nos ha permitido publicar varios papers científicos. Si quieres saber más, haz click aquí.
Sobre el autor
Óscar Barba es cofundador y CTO de Coinscrap Finance. Es un experto Scrum Manager con más de 6 años de experiencia en la recolección y análisis semántico de datos en el sector financiero, clasificación de transacciones bancarias, deep learning aplicado a los sistemas de análisis del sentimiento bursátil y a la medición de la huella de carbono asociada a datos transaccionales.
Con amplia experiencia en el sector bancario y asegurador, Óscar está finalizando su Doctorado en Tecnologías de la Información Es Ingeniero y Máster en Ingeniería Informática por la Universidad de Vigo, Máster en Comercio Electrónico por la Universidad de Salamanca, Certificado Scrum Manager y Project Management por el CNTG, Certificado en Arquitectura SOA y Servicios Web por la Universidad de Salamanca. Recientemente ha obtenido la certificación ITIL Fundamentals, un reconocimiento a las buenas prácticas en la gestión de servicios TI.