OPINIÓN

La ética de las decisiones cuando se usa Inteligencia Artificial



Dirección copiada

Los estándares para modelos de IA responsable no existen en aquellas áreas de trabajo en las que no se ha utilizado esta tecnología previamente

Publicado el 3 jun 2024

Scott Zoldi

Responsable de analítica en FICO



ia

El pasado mes de diciembre, la UE adoptó la primera ley sobre Inteligencia Artificial (IA) en todo el mundo. Esta regulación afecta a proveedores y a operadores de sistemas de IA de alto riesgo en todo lo relacionado con pruebas, documentación, transparencia e información, por lo que las entidades financieras deben asegurarse de que sus proveedores cumplen con la nueva regulación.  

No hay duda de que la IA promueve importantes beneficios para las entidades financieras: experiencias hiperpersonalizadas para los clientes, gestión optimizada de riesgos… pero también impone ciertos riesgos éticos sobre todo cuando se aplica esta tecnología en nuevas áreas de negocio

SCOTT ZOLDI, FICO

No hay duda de que la IA promueve importantes beneficios para las entidades financieras: experiencias hiperpersonalizadas para los clientes, gestión optimizada de riesgos… pero también impone ciertos riesgos éticos, sobre todo cuando se aplica esta tecnología en nuevas áreas de negocio o cuando se fijan estándares para el desarrollo y el control de modelos basados en IA.

Los estándares para modelos de IA responsable no existen en aquellas áreas de trabajo en las que no se ha utilizado esta tecnología previamente, por lo que es altamente probable que los resultados que la herramienta proponga sufran de brechas éticas. Sin embargo, son las organizaciones, en este caso las entidades financieras, las responsables de las decisiones que se tomen, por muy pobres que sean, por lo que es necesario que los directores de tecnología sepan que tienen la obligación de entender cualquier implicación ética de sus iniciativas y, para ello, deben tomar medidas proactivas que eviten impactos negativos.

Según un estudio de FICO llevado a cabo a responsables de entidades financieras y bancarias, la demanda de productos relacionados con IA es cada vez mayor: el 52 % de los encuestados admitió que es una prioridad más alta que hace doce meses. Y, sin embargo, solo el 8 % afirmó que dicha estrategia es suficientemente madura como para acoplarse a los estándares éticos ya existentes en sus respectivas organizaciones. De hecho, el 44 % asegura que ni siquiera tienen estándares definidos para poder aprovechar la IA de forma responsable.

Si queremos responder a las cuestiones éticas relacionadas con la IA, lo primero que debemos tener en cuenta es que esta tecnología no es estática ni se saca de una caja. Una pieza clave de la IA es la interpretabilidad de las decisiones. Sin el conocimiento de los parámetros establecidos o de los procesos de toma de decisiones, es imposible asistir a la dimensión ética de dichas decisiones. Por eso, en este punto se suelen crear tensiones sobre qué debe priorizarse: la eficiencia predictiva o la trazabilidad de los procesos. Esta es la razón por la cual es importante lanzar una pregunta: ¿Cómo pueden las empresas utilizar de forma eficiente los sistemas de IA garantizando que las decisiones que se toman cumplen con estándares éticos mientras se utilizan arquitecturas interpretrables?

Si queremos confiar en los sistemas de IA, es fundamental que entendamos cómo funcionan los algoritmos que se utilizan y cuánto más transparentes sean los procesos, mayor será la aceptación y la confianza de los usuarios. Sin embargo, muchas empresas seguirán teniendo dificultades para entender los procesos de toma de decisión de los modelos IA, sobre todo los que se basan en Machine Learning, debido a la elección de algoritmos o a su incapacidad para explicar cada decisión de forma clara.

Artículos relacionados

Artículo 1 de 5