Es evidente que la inteligencia artificial va conquistando pasito a pasito, pero con firmeza, las actividades de las empresas y de la sociedad, con un impacto que puede ser negativo desde el punto de vista ético por llevarnos a decisiones que puedan contravenir derechos básicos. Esta preocupación viene de lejos, en 2019 la Unión Europea presentó sus líneas maestras para el desarrollo de una IA que garantizara los beneficios para la sociedad, con respeto de la privacidad de datos y protección frente a posibles errores (diagnósticos erróneos de enfermedades, por ejemplo).
La UE antepone el respeto a la dignidad humana, la democracia, la igualdad y los derechos humanos como las líneas rojas que nunca hay que cruzar. Para ello debe ser supervisada por seres humanos y los sistemas deben ser resilientes frente a intentos de manipulaciones o pirateo. Además de ser transparente y proteger los datos, debe tener en cuenta la diversidad social y la sostenibilidad medioambiental. Y todo ello, con una auditoría permanente tanto de carácter interno como externo.
En 2020 la Comisión Europea destinó 1.000 millones de euros a este cometido, y se espera que en la actual década el monto total alcance la exorbitante cifra de 200.000 millones.
Índice de temas
La IA es cosa de empresas
La IA ética no solo corresponde a la jurisdicción política y social, las empresas deben verse involucradas a medida que aumenta la adopción comercial de la toma de decisiones basadas en algoritmos. Los expertos confirman que compañías de todos los sectores están acelerando el uso de la IA para la toma de decisiones basadas en datos.
Ya se trate de plataformas de redes sociales que suprimen publicaciones, de conectar a profesionales sanitarios con pacientes o de grandes bancos de gestión de patrimonios que conceden créditos a sus consumidores finales; sin embargo, cuando la inteligencia artificial decide el resultado final, actualmente no hay forma de suprimir el sesgo inherente al algoritmo. Por eso, normativas emergentes como la propuesta de Ley de Inteligencia Artificial de la UE y el proyecto de ley C-27 de Canadá (que podría convertirse en la Ley de Inteligencia Artificial y Datos si se promulga) están empezando a establecer un marco regulador en torno al uso de la IA en las organizaciones comerciales. Estas nuevas normativas clasifican el riesgo de las aplicaciones en riesgo inaceptable, alto, medio o bajo, y prohíben o gestionan el uso de estas aplicaciones en consecuencia.
Cumplir con la regulación
Como señalan desde Denodo, “las organizaciones tendrán que ser capaces de cumplir con estas regulaciones propuestas, incluida la garantía de la privacidad y la gobernanza de datos, la transparencia algorítmica, la equidad y la no discriminación, la rendición de cuentas y la auditabilidad” (los criterios que marca la Unión Europea). Con esto en mente, las organizaciones tienen que implementar sus propios marcos para apoyar la IA ética, por ejemplo, directrices para una IA digna de confianza, marcos de revisión por pares y comités de ética. A medida que más y más empresas pongan la inteligencia artificial a trabajar, la IA ética será más importante que nunca durante este año.
Cerca del 40% de las empresas incrementará su inversión en digitalización en 2023, según datos de MCPRO. El informe indica que sectores como energía, salud, industria, retail, seguros o fintech apostarán por soluciones avanzadas de big data e inteligencia artificial para avanzar en seguridad y privacidad de sus datos e incrementar su velocidad transaccional a gran escala, la detección del fraude, la automatización de sus procesos o el mantenimiento predictivo y los omnipresentes chatbots.
Y desde Keepler afirman que “los proyectos de IA deberán tener presentes aspectos de privacidad y seguridad, desde su definición. Además de asegurar la información, también es necesario determinar modelos más robustos y fiables, y aplicar técnicas como adversarial training, para prevenir respuestas ante posibles datos corruptos o escenarios poco frecuentes”.
Del dicho al hecho va a tener que pasar bastante tiempo porque las empresas no son precisamente muy dinámicas a la hora de aplicar cambios culturales. Un estudio del Institute for Business Value de IBM indica que el 79% de los CEO está preparado para implementar prácticas éticas de IA, pero menos de una cuarta parte de las organizaciones ha actuado al respecto. A pesar de que existe un fuerte interés por avanzar hacia una IA confiable, incluyendo un mejor desempeño en comparación con la competencia en materia de sostenibilidad, responsabilidad social y diversidad e inclusión, sigue existiendo una brecha entre la intención de los ejecutivos y las acciones llevadas a cabo.
En el informe se desprende la unanimidad de que los ejecutivos de las empresas deben liderar esta nueva estrategia. A nivel europeo, los CEO (30%), así como los miembros de la Junta Directiva (10%), los consejeros generales (5%), los responsables de privacidad (6%) y los responsables de riesgo y compliance (6%) son considerados como los máximos responsables de la ética en la IA, según los encuestados.
Imperativo empresarial
Por otro lado, construir una IA confiable se percibe como un diferenciador estratégico y las organizaciones empiezan a implementar mecanismos de ética en la IA. “Casi tres cuartas partes de los altos ejecutivos encuestados en Europa este año coinciden en que la ética en la IA es importante para sus organizaciones”, señala IBM.
Al mismo tiempo, el 73% de los encuestados en Europa cree que la ética es una fuente de diferenciación competitiva, y más de la mitad (55%) que ve la IA y la ética de la IA como algo importante indica que sus organizaciones superan a su competencia en sostenibilidad, responsabilidad social y diversidad e inclusión.
Garantizar que los principios éticos están integrados en las soluciones de IA es una necesidad urgente para las empresas, pero el progreso todavía es demasiado lento; esta sería la principal conclusión.
Y al respecto evangeliza Jesús Mantas, global managing partner de IBM Consulting: “Los resultados de nuestro estudio del IBV demuestran que la creación de una IA confiable es un imperativo empresarial y una expectativa de la sociedad, no solo una cuestión de compliance. En este sentido, las empresas pueden implementar un modelo de gobernanza e integrar los principios éticos en todo el ciclo de vida de la IA