informes

¿Hacen las empresas un uso responsable de la IA?



Dirección copiada

Según un estudio de Qlik y Tech Target, el 74% de las empresas desconoce cómo implementar la IA de forma responsable

Actualizado el 23 jul 2024



Uso responsable de la IA

Qlik, compañía integración de datos, analítica e inteligencia artificial (IA), ha realizado un estudio en colaboración con el Grupo de ESG, TechTarget, para arrojar luz sobre el estado de las prácticas de IA responsable en diferentes industrias.

Los resultados del informe destacan la urgencia de priorizar su uso responsable y garantizar su transparencia, no solo para cumplir con las regulaciones emergentes, sino también para fomentar la confianza en estas herramientas.

Entre los retos y las iniciativas estratégicas que rodean esta tecnología resaltan:

La adopción masiva de la IA: Casi la totalidad de las organizaciones encuestadas (un 97%) están utilizando de alguna manera la IA generativa, con un 74% ya implementando tecnología de este tipo en fase de producción. Lo cual supone una tendencia clara hacia las operaciones AI-driven en distintos sectores.

Brecha entre inversión y estrategia: Si bien todos los encuestados reconocen estar invirtiendo en IA, un 61% está dedicando un presupuesto significativo a estas tecnologías. Pese a esto, un 74% de las organizaciones admiten que aún carecen de una estrategia unificada a nivel organizativo cuando se trata de implementar la IA de forma responsable.

Desafíos éticos de la IA: El informe destaca varios desafíos clave a los que se enfrentan las organizaciones, incluyendo que un 86% de ellas tienen dificultades para garantizar la comprensión y la transparencia de sistemas basados en IA, y casi la totalidad de las organizaciones (99%) tienen dificultades a la hora de cumplir con las regulaciones y estándares normativos, subrayando la complejidad legislativa que rodea todavía a esta tecnología.

Impacto de la IA responsable en las operaciones: A pesar de los retos, un 74% de las organizaciones sitúan como máxima prioridad el uso de una IA responsable. Más de una cuarta parte de las organizaciones afirman que se han encontrado con un incremento de costes operativos, un escrutinio normativo y retrasos en la salida al mercado, debido a una falta de responsabilidad aplicada a la IA.

Los stakeholders también deben tomar decisiones sobre la IA: Esta investigación resalta la participación de los stakeholders en este ámbito, poniendo el foco en los departamentos de TI, que estarían desempeñando el papel más proactivo. Todo ello enfatiza la necesidad de plantear enfoques inclusivos y colaborativos a nivel de stakeholders en el despliegue y la gobernanza ética de la IA.

Medidas para un uso responsable de la IA

  • Definir de manera clara el propósito previsto de los sistemas de IA y evaluar su impacto potencial general.
  • Implementar de forma proactiva la IA para el beneficio de la sociedad y el medioambiente.
  • Integrar proactivamente principios de diversidad e inclusión a través de la vida útil de los sistemas de IA.
  • Aumentar la transparencia con la ayuda de herramientas tecnológicas.
  • Humanizar la experiencia de IA y garantizar la supervisión humana de sus sistemas.
  • Garantizar la seguridad tecnológica de los sistemas de IA.
  • Proteger la privacidad de las personas, capacitándolas y poniéndolas a cargo de las interacciones de IA.

Artículos relacionados

Artículo 1 de 3