En 2010, Jeff Brantingham creó una aplicación de predicción de delitos, PredPol, a partir de un modelo utilizado para adelantarse a la aparición de réplicas de terremotos. Durante los siguientes años, se convertiría en un éxito rotundo que comenzaba a reducir las tasas de criminalidad.
No obstante, en 2016, las costuras del modelo empezaban a ser visibles. Diferentes grupos comenzaron a avisar de que el sistema estaba perpetuando los sesgos existentes en el sistema de justicia penal. Las predicciones de PredPol utilizaban como base los registros policiales, que no reflejaban de manera imparcial las tasas de criminalidad, sino los patrones de vigilancia policial anteriores.
Este es un caso muy repetido que evidencia la necesidad de un control adecuado y realización de evaluaciones de impacto periódicas sobre el uso de la inteligencia artificial. Muchos de los departamentos policiales que adquirieron PredPol no realizaron ningún tipo de análisis previo sobre la calidad de sus resultados.
Esta historia podría servir de ejemplo sobre cómo las herramientas de inteligencia artificial y aprendizaje automático, aunque prometedoras, son tan buenas, justas e imparciales como los datos con los que se entrenan. Sin embargo, en 2023, este recordatorio ya no es suficiente.
Las herramientas de inteligencia artificial y aprendizaje automático, aunque prometedoras, son tan buenas, justas e imparciales como los datos con los que se entrenan
Brian Christian, el autor de ‘The Alignment Problem’, explica magníficamente bien el caso de PredPol en su libro. El escritor estadounidense señala que hay diferentes grados y definiciones de ‘justicia e imparcialidad’. Si se ajustan los algoritmos para que no importe la raza o antecedentes de las personas, podrían no funcionar igual de bien para todos los grupos demográficos. Y si se configuran para que funcionen igual de bien para todos los grupos, podrían no ser justos en términos de paridad demográfica.
Índice de temas
Marco regulatorio de la IA
Por tanto, para poder establecer un marco regulatorio adecuado para los sistemas de IA que están y seguirán apareciendo en diferentes ámbitos de nuestras vidas, necesitamos entender cómo implementar adecuadamente estos sistemas de manera responsable a lo largo de toda la cadena de valor de un sistema de IA, que es indudablemente compleja.
Varias instituciones de renombre y grupos de expertos como la OCDE o el High Level Expert Group de la Comisión Europea llevan años trabajando en definir los principios básicos para una IA fiable. Con sus variaciones, todas parecen coincidir en que la fiabilidad del sistema (la accuracy en inglés) tiene que estar tamizada por la privacidad, la transparencia y la explicabilidad del sistema, por la imparcialidad antes mencionada, y porque el sistema pueda ser controlado por humanos en cualquier momento.
Las empresas creadoras y usuarias de sistemas de IA tienen una gran oportunidad: convertirse en pioneras de la IA responsable
Las empresas creadoras y usuarias de sistemas de IA tienen una gran oportunidad: convertirse en pioneras de la IA responsable. Especialmente en un contexto en el que se avecinan marcos regulatorios integrales como, el Reglamento de IA de la UE (AI Act) y leyes específicas como las diferentes directivas europeas sobre derechos civiles e IA, o las leyes sectoriales y estatales que ya están apareciendo en países como Estados Unidos o Canadá. Afortunadamente, muchas empresas ya están en el camino definiendo proactivamente los principios de privacidad, transparencia o explicabilidad en sus aplicaciones de IA.
Este compromiso proactivo no es simplemente una estrategia de cumplimiento; permite ahondar en el establecimiento equilibrado de estándares en toda la industria para una IA responsable. A medida que las organizaciones integran voluntariamente estos principios en el ADN de sus sistemas de IA y ahondan en los desafíos de esta integración, tal y como hemos visto con el ejemplo de PredPol, estarán mejor preparadas para el cumplimiento normativo y se posicionarán a la vanguardia de las mejores prácticas de la industria.
Además, al alinear voluntariamente los objetivos corporativos con los intereses de la sociedad, las empresas enviarán un mensaje claro tanto a la sociedad como a la administración: estarán listas y dispuestas a defender una IA que sea responsable, justa y competitiva. Tales iniciativas también demostrarán que el sector empresarial está preparado para contribuir a un panorama de IA beneficioso y productivo.
Leyes prácticas
Por último, pero no menos importante, estos esfuerzos pueden enriquecer en gran medida el proceso regulatorio. A medida que las empresas navegan por las realidades de la implementación de IA responsable, generan información valiosa que puede guiar a las autoridades reguladoras en la elaboración de leyes prácticas e informadas. Esto forma un circuito de retroalimentación que fomenta un enfoque de regulación más colaborativo y proporcionado, en el que los reguladores pueden aprovechar las experiencias del mundo real para informar sus decisiones.
Este camino no es sencillo. Las dificultades en la implementación real de los principios mencionados anteriormente son grandísimas y nos encontraremos con preguntas difíciles de contestar en la actualidad: ¿cómo equilibrar la exigencia de calidad de resultados basados en datos con los desafíos actuales de la gestión de la propiedad intelectual internacionalmente? (transparencia), ¿hasta dónde llega el estado del arte en la comprensión de cómo un sistema de IA complejo ha tomado sus decisiones? (explicabilidad), o ¿he de eliminar cualquier dato de sesgo de género o de raza, aunque eso implique que después no podré comparar ni validar si efectivamente mis datos correlacionan con estos sesgos? (privacidad).
La IA responsable requiere un compromiso continuo para alinear las poderosas capacidades de la IA con nuestros valores sociales
Pero recordemos que la IA responsable es un viaje, no un destino. Requiere un compromiso continuo para alinear las poderosas capacidades de la IA con nuestros valores sociales. El adelanto a los mandatos regulatorios, a través de la autorregulación y otras medidas proactivas, favorecerá la creación de sistemas confiables y con impacto social beneficioso, visible y apreciable.
A ello se suma la oportunidad única para cerrar la brecha entre los sectores público y privado, al demostrar un compromiso con la IA responsable, las corporaciones pueden influir en las conversaciones regulatorias, contribuyendo a formulaciones de políticas que sean efectivas y pragmáticas. Este enfoque cooperativo ejemplifica cómo las empresas pueden ser no solo parte de la economía, sino también contribuyentes integrales en la sociedad.