opinión

Hacia una sociedad digital igualitaria: Cómo combatir los sesgos de género de la inteligencia artificial



Dirección copiada

Para evitar que se introduzca información parcial, se debe realizar una búsqueda y selección exhaustiva de fuentes diversas y equilibradas que no contengan sesgos de origen

Publicado el 8 abr 2025

Lucia Ferrer

CRO & Co-Founder de PUEDATA



Sesgos

La sociedad digital es en gran medida un reflejo de nuestro mundo. Como consecuencia, las respuestas que aporta la inteligencia artificial pueden replicar y amplificar estereotipos y prejuicios ya presentes en la sociedad. Estos sesgos, más allá de implicar errores técnicos, constituyen un problema mayor. 

La información que consultamos y el contenido que consumimos contribuyen a la visión que adquirimos sobre la realidad. Si nuestra interacción con la tecnología nos conduce a percepciones parciales en materia de género e igualdad, nuestra realidad también será parcial.

Tal y como afirma un reciente informe de la UNESCO, “los responsables tecnológicos deben realizar los esfuerzos necesarios para minimizar la aparición de resultados discriminatorios en los sistemas de IA, con el fin de garantizar que dichos sistemas sean equitativos”.

Si no somos conscientes de este desafío y no se toman las medidas adecuadas, los sistemas de IA continuarán reproduciendo determinados prejuicios. Avanzar hacia una igualdad real en plena era digital supone educar correctamente a la inteligencia artificial y poner en marcha mecanismos preventivos que eviten la introducción de información sesgada en los modelos.

Datos: la clave para mitigar los sesgos de género

Los datos juegan un papel absolutamente crucial, ya que son los cimientos sobre los que se construyen los modelos de IA. Por tanto, de su calidad y diversidad depende el comportamiento de las soluciones tecnológicas. De ahí que se deba prestar mucha atención a la fase de entrenamiento para evitar los sesgos.

Hay información que se incorpora a los sistemas procedente de textos de épocas anteriores donde la visión sobre la mujer distaba mucho de la actual y que, por tanto, pueden contener ciertos prejuicios. Por ejemplo, en relación a su papel en la familia. A este tipo de datos se unen las asociaciones que puede hacer la IA reforzando estereotipos, como vincular determinadas profesiones en función del género, como «enfermera» y «doctor».

Además, se debe tener muy presente la representatividad en los datos, ya que, si ciertas figuras están subrepresentadas, el modelo aprenderá menos sobre ellas y generará respuestas menos amplias y matizadas.

Estos modelos no solo replican, sino que pueden amplificar los sesgos presentes en los datos, haciendo más notables patrones que estaban más diluidos en la información original.

Si no se interviene en la etapa de entrenamiento de los datos, los modelos inevitablemente perpetúan los estereotipos existentes, por lo que es fundamental invertir recursos en mejorar esos conjuntos de datos desde una perspectiva de igualdad y representatividad.

Personas y tecnología, alineadas en torno a una IA igualitaria

Para evitar que se introduzca información parcial, se debe realizar una búsqueda y selección exhaustiva de fuentes diversas y equilibradas que no contengan sesgos de origen. Técnicas innovadoras como el «debiasing algorítmico” permiten identificar y corregir elementos discriminatorios durante el entrenamiento.

Otros mecanismos consisten en dotar al modelo de una mayor representatividad, aumentar artificialmente la representación de ejemplos minoritarios o contra estereotipos. Identificar y etiquetar contenido sesgado también permite entrenar al modelo para reconocer y evitar estos patrones.

Las grandes tecnológicas ya están promoviendo diferentes herramientas para tratar de revertir los sesgos de género. En este sentido, Google ha anunciado recientemente la implementación de un sistema de evaluación continua que monitoriza en tiempo real las respuestas de sus modelos para detectar los sesgos. OpenAI, por su parte, ha apostado por el llamado aprendizaje adversarial: un sistema secundario penaliza al modelo cuando genera contenido con sesgo de género, conduciendo a mejorar progresivamente.

Iniciativas como AI Fairness 360 de IBM ofrecen herramientas de código abierto para que cualquier desarrollador pueda evaluar y mitigar sesgos en sus sistemas.

Sin embargo, no podemos olvidar el factor humano. En los equipos de desarrollo las organizaciones necesitamos personas con diferentes perspectivas ya que los algoritmos no pueden identificar todos los matices culturales y sociales que constituyen un sesgo. De hecho, de acuerdo con datos del Foro Económico Mundial de la UNESCO, tan solo 2 de cada 10 mujeres que trabajan en tecnología lo hacen en puestos relacionados con la IA.

Finalmente, las compañías deben apostar por la transparencia en línea con el Reglamento sobre Inteligencia Artificial de la Unión Europea, que obligará a documentar exhaustivamente sus modelos de IA, incluyendo limitaciones y posibles sesgos. Por otra parte, hay que educar a los usuarios en que están interactuando con herramientas que podrían contener determinados prejuicios de género.

Todavía hay mucho camino que recorrer para lograr una IA libre de sesgos, por lo que debemos trabajar de forma conjunta y decidida para garantizar un funcionamiento de los sistemas tecnológicos cada vez más equitativo, que contribuya a una sociedad igualitaria y libre de estereotipos de género.

Artículos relacionados

Artículo 1 de 5