En los próximos años, la inteligencia artificial está llamada a liderar los principales cambios tecnológicos en las empresas. Sin embargo, desde algunas instancias se cree que es necesario ponerle coto o al menos definir un marco ético para su entrada en escena. Sage ha hecho un llamamiento para que la comunidad tecnológica internacional asuma su responsabilidad en el desarrollo amable de la inteligencia artificial en el ámbito empresarial.
Y lo ha hecho con la publicación de Código Ético: Desarrollo de la inteligencia artificial para empresas basado en cinco principios básicos. Este código de conducta ha sido desarrollado por el proveedor de software empresarial durante la construcción del propio programa de aprendizaje automático de IA de la compañía, diseñado específicamente para reducir los procesos de administración financiera de los empresarios de cualquier envergadura, desde startups hasta grandes empresas.
Kriti Sharma, vicepresidenta de bots e inteligencia artificial de la compañía, reconoce que desarrollar chatbots y programas de IA “es la parte sencilla” de su trabajo, y que “lo difícil es gestionar todas las dudas que esta disrupción tecnológica genera, pues son muy amplias y diversas”.
Los principios del código ético de Sage son los siguientes:
1. La inteligencia artificial debe reflejar la diversidad de los usuarios a los que sirve. Tanto la industria como la comunidad tecnológica deben desarrollar mecanismos eficaces para filtrar los sesgos y el sentimiento negativo de los datos recogidos por la IA. Esto servirá para garantizar que la IA no perpetúa estereotipos erróneos.
2. La inteligencia artificial debe rendir cuentas, igual que lo hacen los usuarios.
Los usuarios construyen una relación de confianza con la IA tras varias interacciones significativas. Después de adquirir confianza, llega la responsabilidad y la IA tiene que responsabilizarse de sus acciones y decisiones, igual que lo hacen los seres humanos. Si no aceptamos este tipo de comportamientos de otros profesionales, ¿por qué deberíamos hacer una excepción con la tecnología?
3. Recompensa a la inteligencia artificial por sus progresos.
Cualquier sistema de IA que base su aprendizaje en malos ejemplos podría llegar a ser socialmente inapropiado. En la actualidad, que los sistemas de IA amplíen su campo de escucha y de recogida de datos es la solución para que progresen en su aprendizaje. Uno de los retos es el desarrollo de un mecanismo de recompensa. Las medidas de aprendizaje y refuerzo deben construirse no sólo basándose en lo que la IA o los robots hacen para lograr un resultado, sino en cómo se alinean con los valores humanos para lograr ese resultado concreto.
4. La inteligencia artificial debe garantizar la igualdad de condiciones.
Las tecnologías sociales, como los asistentes de voz o los robots, ofrecen soluciones de rápido acceso, especialmente indicadas para personas discapacitadas por problemas de visión, dislexia o movilidad reducida. La comunidad tecnológica empresarial necesita acelerar el desarrollo de nuevas tecnologías para garantizar la igualdad de condiciones y ampliar el número de talentos disponibles.
5. La inteligencia artificial sustituirá puestos de trabajo, pero también creará nuevos empleos.
Aparecerán nuevas oportunidades creadas por la robotización de tareas y es importante que los seres humanos estén preparados para ello. Hay que tener en cuenta que, si la IA y la empresa trabajan juntos, conseguirán que la plantilla se centre en lo verdaderamente importante: construir relaciones y cuidar de los clientes.
“Es muy importante que las compañías adopten las mejoras tecnológicas que tienen a su alcance, sobre todo cuando se trata de algo tan significativo como la inteligencia artificial, que puede ser determinante para pequeñas y medianas empresas”, afirma Luis Pardo, consejero delegado de Sage Iberia. “Estoy seguro de que el código ético servirá a muchas pymes a desenvolverse con facilidad en la IA”, concluye Pardo.