Ley de Inteligencia Artificial: Se alcanza un acuerdo histórico para la primera normativa mundial sobre IA

18 diciembre 2023 por Brent Lee
Ley de Inteligencia Artificial: Se alcanza un acuerdo histórico para la primera normativa mundial sobre IA

Resumen

El histórico acuerdo sobre la Ley de Inteligencia Artificial (IA) alcanzado entre la Presidencia del Consejo y el Parlamento Europeo sienta un precedente para integrar la IA en el mercado europeo, protegiendo al mismo tiempo los derechos fundamentales y fomentando la innovación. La Ley de IA esboza un marco regulador basado en el riesgo, imponiendo en particular normas estrictas a los sistemas de IA de alto riesgo. La estructura de gobernanza revisada del acuerdo permite la aplicación a nivel de la UE y dicta una evaluación de impacto sobre los derechos fundamentales para los despliegues de IA de alto riesgo.

 

Los sistemas de IA se han definido categóricamente, excluyendo los usos en seguridad nacional, fines militares y otras aplicaciones no profesionales, siguiendo el planteamiento de la OCDE. Los sistemas de alto riesgo se enfrentan ahora a estrictos requisitos de acceso al mercado de la UE, con prohibiciones específicas de prácticas como las técnicas policiales manipulativas o predictivas. No obstante, las fuerzas de seguridad pueden emplear la identificación biométrica a distancia con las salvaguardias adecuadas.

 

Se han introducido nuevas disposiciones para los sistemas de IA de uso general, centradas en la transparencia y la gestión del riesgo sistémico. Una Oficina de Inteligencia Artificial centralizada gestionará estos sistemas, mientras que el Consejo de Inteligencia Artificial y un foro consultivo apoyarán la ejecución y aportarán su experiencia. Las sanciones por incumplimiento se basan en el volumen de negocios anual global, ajustado adecuadamente para las PYME y las nuevas empresas.

 

El acuerdo también pretende estimular la innovación modificando las medidas de apoyo y estableciendo "sandboxes" reguladores de la IA. La Ley de Inteligencia Artificial entrará en vigor dos años después de su entrada en vigor, con algunas disposiciones sujetas a plazos específicos. Esta propuesta, iniciada en abril de 2021, forma parte del esfuerzo de la UE por armonizar el desarrollo de la IA con consideraciones de derechos fundamentales, reflejando la influencia del Reglamento General de Protección de Datos en la protección de datos.

Abrir artículo completo

Ley de Inteligencia Artificial: Se alcanza un acuerdo histórico para la primera normativa mundial sobre IA

Introducción

Tras intensas negociaciones de tres días, la Presidencia del Consejo y el Parlamento Europeo han alcanzado un acuerdo histórico sobre la Ley de Inteligencia Artificial. Esta ley, una iniciativa legislativa pionera, pretende integrar de forma segura la IA en el mercado europeo, salvaguardando al mismo tiempo los derechos fundamentales y promoviendo la innovación en Europa.

 

Declaración de Carme Artigas

Carme Artigas, Secretaria de Estado española de Digitalización e Inteligencia Artificial, destacó la importancia de este acuerdo. Consigue un equilibrio entre el fomento de la innovación en IA en toda Europa y la protección de los derechos fundamentales de los ciudadanos.

 

Visión de la Ley de IA

La Ley de IA está diseñada para guiar el desarrollo y el uso de la IA en el mercado único de la UE. Emplea un enfoque basado en el riesgo, estableciendo normas más estrictas para los sistemas de IA que plantean mayores riesgos. Esta ley está llamada a convertirse en una referencia mundial para la regulación de la IA, al igual que el GDPR lo ha sido para la protección de datos.

 

Aspectos destacados del acuerdo provisional

 

  1. Nuevas normas y gobernanza:
  2. El acuerdo introduce normas para los modelos de IA de alto impacto y los sistemas de IA de alto riesgo.
  3. Un sistema de gobernanza revisado incluye poderes de ejecución a nivel de la UE.
  4. Se amplía la lista de prohibiciones, pero se permite a las fuerzas de seguridad utilizar la identificación biométrica a distancia en espacios públicos bajo ciertas salvaguardias.
  5. Los usuarios de sistemas de IA de alto riesgo deben realizar una evaluación de impacto sobre los derechos fundamentales antes de utilizarlos.
  6. Definiciones y ámbito de aplicación
  7. La definición de sistema de IA se ajusta al planteamiento de la OCDE, proporcionando criterios claros.
  8. La Ley de IA no cubre la seguridad nacional, los fines militares, la investigación, la innovación o el uso no profesional de la IA.
  9. Clasificación de los sistemas de IA:
  10. Una capa de protección horizontal incluye la clasificación de los sistemas de IA como de alto riesgo.
  11. Los sistemas de IA de alto riesgo están sujetos a requisitos de acceso al mercado de la UE, con consideraciones sobre la calidad de los datos y la documentación técnica, especialmente para las PYME.
  12. Prácticas de IA prohibidas:
  13. Ciertos usos de la IA se consideran demasiado arriesgados y están prohibidos, como la manipulación cognitiva del comportamiento, el reconocimiento de emociones en el lugar de trabajo y la vigilancia policial predictiva.
  14. Excepciones para las fuerzas de seguridad:
  15. Se hacen excepciones específicas para las fuerzas de seguridad, equilibrando la confidencialidad operativa con la protección de los derechos fundamentales.
  16. Sistemas de IA de propósito general y modelos básicos:
  17. Nuevas disposiciones abordan los sistemas de IA de propósito general y los modelos básicos, centrándose en la transparencia y la gestión del riesgo sistémico.
  18. Arquitectura de gobernanza:
  19. Una Oficina de IA dentro de la Comisión supervisará los modelos avanzados de IA.
  20. El Consejo de IA, compuesto por representantes de los Estados miembros, coordinará la aplicación y asesorará sobre los modelos básicos.
  21. Un foro consultivo incluirá a diversas partes interesadas con conocimientos técnicos.
  22. Sanciones:
  23. Las multas se fijan en un porcentaje del volumen de negocios anual global o en una cantidad predeterminada, con topes proporcionales para las pymes y las startups.
  24. Transparencia y derechos fundamentales:
  25. Se exige una evaluación de impacto sobre los derechos fundamentales antes de desplegar sistemas de IA de alto riesgo.
  26. Se exige una mayor transparencia en el uso de sistemas de IA de alto riesgo.
  27. Apoyo a la innovación:
  28. El acuerdo modifica las medidas de apoyo a la innovación, incluidos los "cajones de arena" reguladores de la IA para realizar pruebas en condiciones reales.
  29. Entrada en vigor y próximos pasos:
  30. La Ley de IA se aplicará dos años después de su promulgación, con algunas disposiciones que tienen plazos específicos.
  31. El texto de compromiso se someterá a finalización y revisión jurídico-lingüística antes de su adopción formal.

 

Antecedentes:

Lanzada en abril de 2021, la propuesta de la Comisión forma parte de la política de la UE para fomentar un desarrollo seguro y legal de la IA que respete los derechos fundamentales. Siguiendo un enfoque basado en el riesgo, su objetivo es crear un marco jurídico uniforme para la IA, mejorando la gobernanza, la aplicación y facilitando un mercado único para las aplicaciones de IA. Las negociaciones con el Parlamento Europeo comenzaron a mediados de junio de 2023, tras el acuerdo del Consejo sobre este expediente en diciembre de 2022.

 

Más información

 

 


Contenido relacionado   #Ley de Inteligencia Artificial  #sistemas de IA de alto riesgo  #derechos fundamentales