La Inteligencia Artificial (IA) se ha convertido en una herramienta poderosa con un impacto significativo en diversos aspectos de nuestra sociedad. En los últimos días, una noticia sobre una carta firmada por 300 expertos ha alertado sobre los riesgos asociados con la IA, incluyendo incluso el riesgo de extinción. Estos riesgos incluyen la propagación masiva de desinformación y propaganda, la posible eliminación de empleos y el surgimiento de una IA más inteligente que los seres humanos. Es importante destacar que la IA aprende de nosotros, lo que hace que estos temores sean aún más inquietantes.
Además de estos problemas, como la extinción, la desinformación, la propiedad intelectual y la ética, según Carmen Troncoso, DPO de Paradigma Digital existen innumerables riesgos en términos de protección de datos: “¿Cuándo fue la última vez que utilizaste un servicio online con total tranquilidad, sabiendo que tus datos y acciones no están siendo registrados ni utilizados por nadie? La respuesta es casi nunca.”
Según datos del último estudio realizado por TransUnion tres de cada cuatro (75 %) españoles confiesan que están “muy preocupados” o “algo preocupados” cuando comparten información personal. Las razones esgrimidas son la posibilidad de que se les robe dicha información (para el 70 %), la invasión a la privacidad (para el 60 %) o el hecho de que se puedan utilizar sus datos para recibir comunicaciones comerciales no solicitadas (37 %).
Según esta experta hay riesgos específicos relacionados con la protección de datos que deben abordarse a través de una regulación adecuada:
- Recopilación excesiva de datos: La IA requiere grandes cantidades de datos para su entrenamiento, lo que puede resultar en la recopilación excesiva de información personal.
- Uso no autorizado de datos: Existe el riesgo de que los datos recopilados para la IA se utilicen para fines no autorizados o más allá del propósito original, lo que plantea preocupaciones de privacidad.
- Sesgos y discriminación algorítmica: Los algoritmos de IA pueden reflejar sesgos y discriminación inherentes en los datos de entrenamiento, lo que puede resultar en decisiones injustas o perjudiciales para ciertos grupos.
- Falta de transparencia: La opacidad de los algoritmos de IA dificulta la comprensión de cómo se toman las decisiones y qué datos se utilizan, lo que socava la confianza y el control del usuario sobre sus datos personales.
- Riesgo de violaciones de seguridad: Los sistemas de IA pueden ser vulnerables a ataques y violaciones de seguridad, lo que podría resultar en la exposición o el acceso no autorizado a datos personales.
- Rastreo y vigilancia masiva: El uso de la IA para el rastreo y la vigilancia puede plantear preocupaciones sobre la invasión de la privacidad y el monitoreo constante de las actividades de las personas.
- Inexactitud y toma de decisiones erróneas: La IA puede cometer errores y tomar decisiones incorrectas, lo que puede tener consecuencias negativas para los individuos, especialmente cuando se utiliza en áreas críticas como la salud o el sistema judicial. Si la IA proporciona asesoría jurídica directamente a los clientes por ejemplo en caso de negligencia, ¿quién sería considerado responsable?
- Falta de consentimiento informado: El uso de IA a menudo implica el procesamiento de datos personales sin un consentimiento informado adecuado.
Equidad, privacidad, seguridad, inclusión o transparencia son aspectos valorados de modo diferente según los diferentes ámbitos públicos, como educación, sanidad o defensa o incluso según los distintos sistemas políticos. El gobierno de España propondrá a nuestro país como sede mundial del máximo organismo de control de la nueva tecnología, una futura agencia internacional de IA pero como ya han apuntado diversas voces en nuestro país se hace necesario un foro global de cooperación científica y técnica para sentar las bases normativas de “este nuevo mundo: la IA “, un pacto global tal y como se hizo en su momento con el desarrollo de la energía atómica y la creación de la agencia de energía atómica.
La clave para Troncoso “una opción es regular la IA no tanto de modo general, sino regulando sus usos a casos concretos donde la decisión de un programa de IA afecta directamente a las personas como la educación, sanidad, trabajo o judicial por ejemplo, donde actualmente la ausencia de esa regulación es un riesgo mucho mayor que no contar con un marco jurídico y seguir avanzando en el uso de la IA en estos ámbitos”.