a fondo

Entra en vigor la Ley de IA Europea



Dirección copiada

La ley, que arranca el 1 de agosto de 2024, establece un sistema de sanciones para aquellos que incumplan sus disposiciones

Actualizado el 31 jul 2024

Rufino Contreras

Redactor Jefe



ley europea IA apertura

La Ley de IA Europea entra en vigor

Aprobación de la Ley de IA Europea

El Parlamento Europeo ha aprobado la normativa pionera en el mundo que regula la inteligencia artificial, con el fin de garantizar la seguridad y el respeto de los derechos fundamentales mientras impulsa la innovación. Con 523 votos a favor, 46 en contra y 49 abstenciones, la Eurocámara respaldó el acuerdo alcanzado por las instituciones europeas en diciembre, marcando un hito para su aprobación final en la Unión Europea. La ley de la IA, que será aprobada definitivamente en las próximas semanas y entrará en vigor en 2026, establece límites claros para el uso de la IA y protege a los ciudadanos, prohibiendo la vigilancia masiva en espacios públicos y regulando el uso de tecnologías como la identificación biométrica por parte de las fuerzas del orden.

El 14 de junio de 2023 se aprobó el proceso de negociación de la Ley de Inteligencia Artificial (IA) europea que acaba de ser refrendado por el Parlamento Europeo. La norma garantizará que la IA desarrollada y utilizada en el viejo continente esté en consonancia plena con los derechos y valores de la UE. Finalmente, el 1 de agosto de 2024 se culmina el proceso legislativo y entra en vigor la norma.

Qué es Ley de la IA Europea y cómo nace

La nueva norma comunitaria tiene como objetivo regular el uso de la inteligencia artificial en todos los países miembros. La idea es determinar un marco para la utilización responsable y ética, garantizando la privacidad y la seguridad de los ciudadanos europeos.

Todos los ojos están puestos en esta ley que trata de contrarrestar los peligros que conlleva este fenómeno contra las democracias y las libertades. Al tiempo que las grandes empresas tecnológicas están haciendo sonar la alarma sobre sus propias creaciones (se ha llegó a pedir una una prórroga en el desarrollo de nuevos productos), Europa ha tomado la delantera para propiciar que se aproveche el potencial positivo de la IA en cuanto a creatividad y productividad.

La Ley de la IA Europea presta especial foco en garantizar que los beneficios de las nuevas tecnologías alcancen a todas las regiones de la Unión Europea, y que se puedan dotar de recursos e inversiones a las más desfavorecidas para favorecer su desarrollo.

Objetivos y alcance de la Ley de la IA Europea

Es importante destacar que se trata de la primera ley de estas características del mundo, y que se atreve a afrontar un fenómeno que está en plena génesis y se desconocen sus derivadas. La Ley de IA europea quiere gestionar cómo las organizaciones privadas y públicas desarrollan y emplean las tecnologías generativas. También quiere atar en corto a los chatbots generativos como ChatGPT, Bard, LlaMA, que pueden llegar a afectar a la privacidad de las personas si no son utilizados convenientemente. Por otro lado, las instituciones quieren que los ciudadanos tengan confianza en la tecnología, y por ello es básico una base legal que ofrezca todas las garantías.

Principios éticos y regulatorios de la Ley de la IA Europea

Como lo ha definido el propio Parlamento Europeo: “La Ley de IA de la Unión Europea tiene como objetivo establecer un marco regulador global y con visión de futuro, de principios éticos y obligaciones jurídicas para el desarrollo, el despliegue y el uso de la inteligencia artificial, la robótica y las tecnologías conexas en la Unión.

Desde IBM, se completa esta visión: “La ética de la IA es un conjunto de directrices que asesora sobre el diseño y los resultados de la inteligencia artificial. La UE pretende regular la IA para garantizar mejores condiciones de desarrollo y uso de esta tecnología”. La prioridad es garantizar que los sistemas sean seguros, transparentes y trazables.

En suma, la ley marca unas líneas rojas, delimitadas por los riesgos que la IA puede conllevar para los derechos fundamentales de las personas, incluidas la seguridad y la salud.

Normas para los distintos riesgos

Para llevar a cabo su cometido, la Ley de IA europea ha establecido cuatro niveles de riesgo, que marcan los diferentes niveles de peligrosidad y, en consecuencia, de permisibilidad. Estos niveles son: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo. La UE marca obligaciones para los proveedores y usuarios en función del riesgo que se acarree.

Riesgo inaceptable

Los sistemas de IA que conlleven un riesgo inaceptable para las personas serán vedados. Como el caso de “aquellos sistemas que desplieguen técnicas manipulativas que exploten vulnerabilidades de las personas o sean utilizadas para usos intrusivos y discriminatorios”. De forma taxativa, esta propuesta de ley prohíbe la vigilancia biométrica en tiempo real, el reconocimiento de emociones por IA y los sistemas policiales predictivos.

Los sistemas de identificación biométrica a distancia solo podrán ser utilizados en caso de la aplicación de la ley para el enjuiciamiento de delitos graves y solamente tras una autorización judicial.

Alto riesgo

Los sistemas de alto riesgo deberán cumplir con una serie de obligaciones para ser seguros y respetar los valores y garantías de la UE. Son considerados sistemas de alto riesgo aquellos que se usan en infraestructuras críticas (electricidad, petroleras…), formación educativa, componentes de productos (robots utilizados en cirugía).

También se consideran de alto riesgo los sistemas de conducción autónoma o aquellos utilizados por los bancos para evaluar la solvencia y la calificación crediticia de los ciudadanos.

Riesgo limitado y riesgo mínimo

Los sistemas con un nivel limitado o mínimo de riesgo estarán sujetos a menos obligaciones legales. Sin embargo, deberán cumplir con ciertos requisitos básicos para garantizar su seguridad y transparencia.

Aquí se contemplan los conocidos deepfakes, sistemas que generan y manipulan imágenes, vídeo o audio.

Responsabilidades y obligaciones de los proveedores de IA

Los proveedores de sistemas de IA tienen que emplear los cinco sentidos en sus desarrollos, deben garantizar su transparencia y trazabilidad, y proporcionar información precisa y clara sobre el funcionamiento de sus herramientas.

De la misma forma, los usuarios de sistemas de inteligencia artificial deben hacer un uso responsable y ético de los mismos, respetando la privacidad de las personas y la protección de la propiedad intelectual.

Con relación a los modelos de IA generativos deberán revelar qué contenidos han sido desarrollados de forma virtual para permitir distinguir entre imágenes reales frente a las ‘artificiales’ y salvaguardar la generación de contenido ilegal.También tendrían que ponerse a disposición del público resúmenes detallados de los datos protegidos por derechos de autor utilizados para su formación.

Evaluación de impacto y certificación de sistemas de IA

La Agencia Española de Protección de Datos (AEPD) ha desarrollado una guía para la gestión de riesgos para los derechos y libertades de los interesados aplicable a cualquier tratamiento, independientemente de su nivel de riesgo. Además, para los casos de tratamientos de alto riesgo, incorpora las orientaciones necesarias para realizar la Evaluación de Impacto para la Protección de Datos (EIPD) y, en su caso, la consulta previa a la que se refiere el artículo 36 del RGPD.

La certificación de sistemas de IA es un proceso mediante el cual una entidad independiente evalúa y verifica que un sistema cumple con ciertos estándares y regulaciones. Actualmente, no existe un sistema único y global para la certificación de sistemas de IA, pero hay varias iniciativas en curso para desarrollar estándares y marcos para la certificación, como se explica desde la AEPD. Por ejemplo, el Instituto Europeo de Normas de Telecomunicación (ETSI) está trabajando en el desarrollo de normas para la certificación de sistemas de IA.

Protección de datos y privacidad en la Ley de la IA Europea

En cuanto a la protección de datos y privacidad, la ley se basa en el Reglamento General de Protección de Datos (RGPD) de la UE, que es una ley de aplicación obligatoria en todo el territorio europeo. El RGPD establece normas y principios para la protección de las personas físicas en lo que respecta al tratamiento de sus datos personales y garantiza la libre circulación de estos datos entre los Estados miembros.

Como se comenta más arriba, hay prácticas que pueden poner en peligro la privacidad e integridad de los ciudadanos como son los sistemas biométricos y los predictivos.

Supervisión y aplicación de la Ley de la IA Europea

La supervisión y aplicación de la Ley de IA de la Unión Europea es un aspecto importante para garantizar que los sistemas de IA cumplan con las regulaciones aplicables.

La supervisión y aplicación de la ley será llevada a cabo por las autoridades nacionales competentes en cada Estado miembro de la UE. Estas autoridades serán responsables de supervisar el cumplimiento de la ley y tomar medidas en caso de incumplimiento. Además, la Comisión Europea tendrá un papel importante en la supervisión y coordinación a nivel europeo.

El 28 de diciembre de 2021, el Gobierno español creó la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), adscrita a la Secretaría de Estado de Digitalización e Inteligencia Artificial dentro del Ministerio de Asuntos Económicos y Transformación Digital con una dotación presupuestaria de 5 millones de euros. Será el agente encargado de velar por el cumplimiento de la norma.

Multas por no cumplir las sanciones

La ley establece un sistema de sanciones para aquellos que incumplan sus disposiciones. Las sanciones pueden incluir multas y otras medidas administrativas, dependiendo de la gravedad del incumplimiento.

Las multas pueden ser considerables, y llegar hasta el 6% de los ingresos globales anuales de una empresa o 30 millones de euros, lo que sea mayor (algunas fuentes señalan los 40 millones como techo para las sanciones).

Implicaciones y desafíos para la industria de la IA

Para la industria de la IA se abre un gran desafío para poder cumplir con la nueva regulación y adaptarse a los cambios en el marco legal. Tal vez se verán obligados a implementar cambios en el diseño y desarrollo de su tecnología, impactando en su puesta en marcha y uso.

Por ejemplo, los proveedores de sistemas de IA deben garantizar la transparencia y trazabilidad de sus sistemas, así como proporcionar información clara y adecuada a los usuarios sobre el funcionamiento y uso de sus sistemas (explicabilidad).

Los sistemas deben ser concebidos para evitar sesgos y discriminación, y deben ser capaces de proporcionar explicaciones claras y comprensibles para sus decisiones.

Comparativa con otras regulaciones de IA a nivel global

Diferentes países (EEUU, Canadá, China) están trabajando en el desarrollo de marcos regulatorios para el uso responsable de la IA, pero sin la determinación legislativa y ética que lo está haciendo la UE.

En EEUU, la Oficina Científica y Tecnológica de la Casa Blanca ha puesto en marcha un Plan para la Declaración de Derechos de la IA que se basa en cinco principios: tienen que ser sistemas justos, transparentes y responsables, que protejan la privacidad y la libertad personal; permitan el acceso a los beneficios de la IA, que impulsen la innovación y que sean sostenibles y seguros. De momento no tiene aplicación legal y tiene un carácter ‘evangelizador’.

China también cuenta con un plan para el desarrollo de la IA, que data de julio de 2017. En este documento, el gobierno sitúa la inteligencia artificial como la gran oportunidad para conseguir ventaja competitiva y situar al país como la principal potencia tecnológica mundial hacia 2025. También se ha convertido en uno de los primeros países en regular la IA generativa, fomentando su uso en todas las industrias y tecnologías informáticas.

Canadá es otro país implicado y concienciado con el futuro, si bien hasta la fecha no se conoce ninguna iniciativa legislativa al respecto. En el marco de la Estrategia Pancanadiense de Inteligencia Artificial (2017) se asignan fondos para incrementar el número de investigadores eminentes en IA, así como el de graduados universitarios cualificados.

Perspectivas futuras y evolución de la Ley de la IA Europea

Es muy importante tener en cuenta que esta norma está en proceso de negociación y se espera que, como pronto, entre en vigor a principios de 2023, por lo que pueden existir cambios con relación a su estructura actual, si bien el espíritu de la ley es invariable.

En cuanto a las perspectivas futuras y evolución de la ley, ni los propios expertos pueden predecir con certeza cómo evolucionará. Como cabe pensar, es probable que la ley se adapte y evolucione a medida que se intensifique el uso y regulación de la IA. Por ejemplo, puede haber cambios en las disposiciones de la ley para abordar nuevos desafíos y oportunidades en el campo de la IA. La incorporación de máquinas inteligentes y robots en los ámbitos laborales puede también suponer un punto de inflexión para las futuras legislaciones.

Implicaciones globales

Según la firma Entelgy, esta nueva regulación tiene un impacto significativo y positivo en los ciudadanos de la UE, ya que garantiza una protección de sus derechos fundamentales, mejorando la transparencia y la seguridad de las aplicaciones de IA, y fomentando la confianza en las tecnologías emergentes.

Pero no solo eso, la influencia de esta normativa podría extenderse más allá de Europa, estableciendo un estándar internacional para la regulación de la IA. De esta forma las empresas que operan a nivel global deberán adaptarse a estos nuevos requisitos para acceder al mercado europeo, lo que podría incentivar la adopción de prácticas responsables en todo el mundo.

“Esta normativa representa un paso crucial para asegurar que las aplicaciones de IA se desarrollen y utilicen de manera segura y ética. Esto no solo fortalecerá la confianza de los consumidores en las tecnologías de IA, sino que promoverá un entorno de innovación. Ante ello, las empresas debemos facilitar la adopción de las medidas y prácticas propuestas”, afirman desde Entelgy.

Artículos relacionados

Artículo 1 de 3