¿Es ético utilizar algoritmos en la selección de personal?

Mickaël Cabrol, director gerente de iCIMS para EMEA.

Publicado el 30 Sep 2021

30683_04

La Inteligencia Artificial (IA) se aplica desde hace ya años a multitud de campos en diferentes industrias. Pero si se nos ocurre preguntar a un director de RRHH si se plantea usar este tipo de tecnologías en su trabajo diario lo más probable es que nos saque su lista de preocupaciones: si sirve para algo en un entorno en el que la interacción personal es fundamental, si se podría confiar en las respuestas automáticas que da un chatbot a un candidato o, sobre todo, si se trata de un proceso que cumple con los estándares éticos de la organización o incluso con la regulación sobre igualdad.

De todas maneras, no debemos “culpar” a los responsables de RRHH de la falta de información, o interés, sobre las utilidades de la Inteligencia Artificial dentro de los procesos organizativos. Según un estudio de ZDnet, siete de cada diez directivos –tanto CEO, como CTO o director de RRHH, entre otros- desconocen cómo los modelos de decisión o las predicciones de la IA les pueden ser útiles en sus respectivos trabajos. Y más grave aún: solo el 35% admite que sus organizaciones utilizan de forma transparente la Inteligencia Artificial. Es decir, no es un hándicap solamente del área de talento.

Lo que está claro es que si la Inteligencia Artificial está ayudando a las empresas a ser más eficientes y productivas aplicando tecnología en diferentes áreas de negocio, ¿por qué no aprovecharla también para captar, retener y fidelizar talento en este mundo tan competitivo y cambiante?

La Inteligencia Artificial, bien empleada, puede ayudar a que los procesos de captación sean más transparentes, y aunque la mano humana seguirá siendo necesaria, la tecnología puede ayudar a tomar decisiones informadas de forma más rápida y eficiente, a responder de manera automática a preguntas recurrentes y a facilitar la gestión de citas o pruebas. Así, podrían convertir miles de datos de los candidatos en información útil, reduciendo sesgos y mejorando la diversidad, la equidad y la inclusión… pero también cumpliendo sin paliativos y sin dudas con la creciente regulación sobre contrataciones, tanto nacional como europea.

Si nos centramos en los elementos éticos a la hora de aprovecharnos de la IA, debemos tener en cuenta que un algoritmo se puede considerar justo si evalúa solamente las habilidades y la experiencia del candidato. Es decir, una herramienta que utilice IA ordenará y priorizará los CV de los candidatos que tengan habilidades y experiencias similares, sin fijarse en otro tipo de información (como domicilio, edad, lugar de nacimiento, sexo o estado civil).

No se trata de algo que pase desapercibido en la industria. De hecho, muchas empresas, como la española Paradigma Digital, lanzan interesantes preguntas a los desarrolladores sobre cuestiones que, hasta ahora, podían pasar desapercibidas y que sirven para distanciarnos, como seres humanos, de una máquina que no tiene valores: ¿para qué se va usar este trozo de código que desarrollo?, ¿cuál es el trasfondo de una aplicación que construimos?, ¿cómo afectará a los usuarios, sus derechos, protección…?

En el caso de que exista algún sesgo en los algoritmos de las herramientas de captación de talento, habría que trabajar hasta encontrar dónde se encuentra. Y aquí nos encontramos la mayor preocupación ya que es la mayoría de los fabricantes no enseña cómo funcionan sus algoritmos. Por lo tanto, los responsables de RRHH no pueden modificar ese prejuicio que viene de serie; en otras palabras, no pueden adaptar el algoritmo a sus necesidades de transparencia.

Por eso es fundamental tener claro que la IA con la que trabajemos cumpla con estándares éticos.

Una manera de probar que esto ocurre es utilizando vectores de palabras, que permiten representar las palabras como números en un espacio vectorial desde el que realizar predicciones y cálculos sobre documentos de texto (CV o cartas de presentación).

La mejor forma de entender un espacio vectorial de palabras es imaginando un mapa en el que vemos los nombres de diferentes ciudades y observamos distancias entre ellas. Por ejemplo, si leemos las coordenadas, Madrid y Barcelona están más cerca que Barcelona y Moscú. Por tanto, en un espacio vectorial, Madrid y Barcelona tendrían una relación más cercana que Barcelona y Moscú.

Es decir, de la misma manera que las coordenadas en un mapa, un vector de palabras supone la representación numérica de las palabras más comunes que utilizamos cada día para comunicarnos. Y de la misma manera que las ciudades en un plano, los vectores de palabras tienen distancias diferentes entre ellas: las palabras más cercanas en significado también se encontrarán más cerca en el espacio vectorial.

Tal vez se explica más fácilmente con un ejemplo: “CEO” estará más cerca de “director general” o de “miembro del consejo” que de “becario”. Y es un algoritmo de Machine Learning el que determina la distancia entre conceptos, de manera que si un vector se modifica, todos los vectores adyacentes ajustarán su posición siguiendo un efecto dominó.

El problema se encuentra cuando, por ejemplo, el algoritmo sitúa cerca conceptos como “enfermera”, “bibliotecaria”, “cuidador de niños”, “bailarín” o “estilista” porque están asociados a trabajos desempeñados por mujeres. Si no se ajusta correctamente, los hombres que soliciten un trabajo a una empresa que utilice IA en sus procesos de captación de talento con este sesgo, verán mermadas sus opciones aunque sus habilidades y experiencia sean similares a mujeres que opten a ese puesto.

Por eso, como apuntaba al principio, la interacción humana debe seguir existiendo en los departamentos de talento, precisamente para salvar este tipo de problemas en el pre-proceso y post-proceso de modelos y evitar sesgos e injusticias en la captación de los mejores profesionales para la organización.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 5