OPINIÓN

Diferencias y similitudes de la legislación de IA en UE, EEUU y China



Dirección copiada

Dos expertas abogadas realizan un estudio comparativo de la Ley en los tres grandes centros de poder del planeta

Publicado el 2 jul 2024

Elena Recla y Candela Zurita

Abogadas Privacidad y Protección de Datos de Bird & Bird



ley ia 2

Legislación IA en el mundo

La inteligencia artificial (IA) está transformando rápidamente las industrias, las economías y la sociedad en general, llegando con tantas oportunidades como desafíos significativos, lo que ha llevado a la necesidad de desarrollar marcos regulatorios para maximizar los beneficios y mitigar los riesgos.

En este artículo exploraremos los enfoques adoptados a la hora de regular la IA en Europa, China y Estados Unidos, tres actores clave en el ámbito de la IA. La estrategia regulatoria de cada uno refleja, sin duda, su contexto político, económico y cultural. Europa enfatiza la privacidad y los derechos humanos, buscando equilibrar la innovación con una supervisión rigurosa. China, adopta un enfoque regulatorio centralizado y estratégico, centrándose en el control estatal y el progreso tecnológico. Estados Unidos, casa de muchas de las principales empresas de IA, prefiere un entorno regulatorio impulsado por el mercado y flexible.  

Ley de IA en la Unión Europea

El enfoque adoptado en la Unión Europea (UE) para la regulación de la IA, encapsulado en el Reglamento de IA (ya aprobado y la espera de publicarse en el Diario Oficial de la Unión Europea), se distingue por estar basado en el riesgo. El Reglamento de IA adopta una postura neutral en cuanto a la tecnología, categorizando los sistemas de IA según el nivel de riesgo que presentan (desde mínimo hasta alto). Este enfoque asegura que las aplicaciones de IA de mayor riesgo, como las utilizadas en infraestructuras críticas o que podrían afectar significativamente los derechos fundamentales, estén prohibidas o, de lo contrario, sujetas a requisitos y supervisión más estrictos.

Desarrollo y uso responsable de la IA

Asimismo, la UE pone un fuerte énfasis en promover el desarrollo y uso responsable de la IA. El reglamento exige medidas estrictas para la seguridad de los datos y la privacidad de los usuarios, asegurándose que los sistemas de IA se diseñen y desplieguen con estas consideraciones al frente. También requiere evaluaciones exhaustivas de los riesgos asociados con los sistemas de IA, promoviendo la transparencia y la responsabilidad entre los proveedores de IA. Este enfoque proactivo tiene como objetivo generar confianza por parte del público en las tecnologías de IA al proteger sus derechos y bienestar.

Los proveedores de IA no vigilan a sus usuarios

A diferencia de algunos otros marcos regulatorios como el chino, el Reglamento de IA no impone un requisito a los proveedores de IA para que vigilen el comportamiento de sus usuarios. Esta delimitación de responsabilidades asegura que los proveedores de IA se concentren en el desarrollo y despliegue ético de los sistemas de IA en lugar de monitorear las actividades de los usuarios finales. Sin embargo, los proveedores de IA, especialmente aquellos que manejan sistemas de IA de alto riesgo, están sujetos a una carga regulatoria considerable. Estos proveedores deben registrar sus sistemas de IA de alto riesgo y cumplir con rigurosos estándares diseñados para mitigar posibles daños. Este enfoque permite agilizar el proceso regulatorio y asegura que los esfuerzos regulatorios se concentren donde más se necesitan, reduciendo así cargas innecesarias en los proveedores de IA de menor riesgo.

Un modelo descentralizado

Por último, en cuanto a la supervisión, la UE adopta un modelo descentralizado, fomentando la colaboración con las autoridades nacionales.

Por tanto, en general, el Reglamento de IA busca equilibrar los objetivos duales de fomentar la innovación y asegurar el uso seguro y ético de la IA. Al promover la seguridad de los datos, la privacidad del usuario y un proceso exhaustivo de evaluación de riesgos, el Reglamento de IA tiene como objetivo crear un ecosistema de IA confiable que beneficie tanto a la sociedad como a la economía. 

A diferencia de algunos otros marcos regulatorios como el chino, el Reglamento de IA no impone un requisito a los proveedores de IA para que vigilen el comportamiento de sus usuarios

Marco regulatorio de la IA en China

El marco regulatorio de la IA en China se caracteriza por su control centralizado y un enfoque altamente personalizado basado en la tecnología. El régimen regulatorio es estricto y específico, centrándose particularmente en tecnologías críticas como los algoritmos y las tecnologías de síntesis profunda. Este enfoque personalizado permite abordar los desafíos y riesgos únicos que plantean las diferentes aplicaciones de la IA, asegurando una supervisión y control integrales.

Estructura centralizada

En términos de alcance territorial, China mantiene una estructura regulatoria centralizada que impone estándares uniformes en toda la nación. Este control centralizado facilita un entorno regulatorio cohesivo, permitiendo al gobierno hacer cumplir regulaciones firmes y consistentes en sus diversas regiones. Las autoridades locales pueden adaptar las implementaciones para ajustarse a circunstancias específicas, pero en general, el gobierno central retiene el control primario.

Seguridad de los datos

Promover el desarrollo y uso responsable de la IA es una piedra angular de la estrategia regulatoria de China. En este sentido, el marco regulatorio europeo y chino convergen a la hora de imponer requisitos rigurosos para la seguridad de los datos, la privacidad del usuario y la evaluación exhaustiva de los riesgos asociados con los sistemas de IA. Asimismo, las dos economías coinciden también a la hora de exigir un proceso de registro para los proveedores de IA. Sin embargo, a diferencia de la UE, China lo exige para todos los proveedores de IA, sin importar el riesgo que conlleve el uso de dicho sistema de IA. Todo ello refleja claramente el enfoque adoptado hacia la gobernanza de la IA en China, donde hay un alcance más amplio de supervisión e intervención en los sistemas de IA.

Supervisión del comportamiento del usuario

Por otro lado, un aspecto significativo de la regulación china de la IA es la obligación de moderación de contenido y la supervisión del comportamiento del usuario impuesta a los proveedores de IA. En concreto, se les exige implementar mecanismos de revisión de contenido para para filtrar, detectar y mitigar la distribución de contenido ilegal o perjudicial.

Todo lo anterior deja bastante claro que la supervisión gubernamental es extensa. En general, el marco regulatorio chino se caracteriza por su control centralizado, su enfoque específico en tecnologías críticas y requisitos estrictos para la moderación de contenido y la supervisión del comportamiento del usuario. China, al promover la seguridad de los datos y la privacidad del usuario al tiempo que impone responsabilidades significativas a los proveedores de IA, pretende fomentar un ecosistema de IA seguro y controlado.

Propuesta regulatoria de la IA en EEUU

La estructura de Estados Unidos, caracterizada por un sistema federal en el que el poder se divide entre el gobierno nacional y los gobiernos estatales, fomenta un enfoque regulatorio más fragmentado. Quizás también debido a ello, en términos generales la propuesta regulatoria de Estados Unidos deja que las distintas agencias elaboren sus propias normas y que haya un enfoque sectorial.

Un enfoque sectorial

A través de dicho enfoque, los diferentes sectores adoptan y adaptan normativas específicas a sus necesidades y contextos particulares, lo cual permite una regulación más precisa para cada área. Sin embargo, lo anterior también implica ciertos desafíos, como por ejemplo la coherencia y consistencia entre las diferentes políticas elaboradas en los varios sectores. Por tanto, podría requerir de un mayor esfuerzo para asegurar que se mantenga una uniformidad y equilibrio adecuado entre innovación, seguridad y ética en el uso de la inteligencia artificial en toda la industria.

Orden ejecutiva sobre IA

Sin embargo, cabe destacar la principal iniciativa a nivel federal: la Orden Ejecutiva sobre Inteligencia Artificial emitida por el Presidente Biden. El enfoque adoptado puede describirse, en términos generales, como basado en el riesgo y promotor de la equidad y los derechos civiles, sin dejar de lado el fomento de la innovación. Para la gestión del riesgo, hay una iniciativa de creación de nuevos criterios y estándares para los procesos de desarrollo y fases de prueba de los modelos de IA.

En cuestiones de transparencia, el enfoque se alinea con la posición de la UE y se establecen garantías en los sistemas de IA para proteger a los individuos frente a posibles fraudes y engaños, así como, mejores prácticas en el etiquetado e identificación de contenidos generados por IA.

Sesgos discriminatorios

En general, Estados Unidos enfoca sus esfuerzos en instruir a las agencias del gobierno federal para que evalúen las implicaciones de la IA, se establezcan criterios para evaluar los riesgos en el uso de estas herramientas, y se garantice la protección de los derechos y la equidad previniendo posibles sesgos discriminatorios en los algoritmos.

Resumen comparativo

En resumen, a pesar de sus metodologías diferentes, los marcos regulatorios en Europa, China y Estados Unidos convergen en varios objetivos clave: garantizar la seguridad de los datos y la privacidad de los usuarios, evaluar la seguridad y los riesgos asociados con los sistemas y algoritmos de IA, responsabilizar a los proveedores por la operación segura y conforme de sus sistemas de IA, exigir transparencia y proteger los derechos e intereses de los usuarios.

Los diversos grados de intervención gubernamental y supervisión ilustran diferentes caminos hacia un objetivo común: aprovechar el potencial transformador de la IA mientras se mitigan sus posibles riesgos. A medida que la IA continúa evolucionando, el diálogo y la cooperación continua entre estos actores principales serán cruciales para crear un entorno global donde las tecnologías de IA se desarrollen y desplieguen de manera responsable, ética e inclusiva.

Artículos relacionados

Artículo 1 de 2