EL CONSEJO EUROPEO DA LUZ VERDE DEFINITIVA A LAS PRIMERAS NORMAS MUNDIALES SOBRE IA
Por Julio García / Aquí Europa
El Consejo Europeo ha aprobado el 21 de mayo de 2024 una ley innovadora destinada a armonizar las normas sobre inteligencia artificial, la llamada ley sobre inteligencia artificial. La legislación emblemática sigue un enfoque «basado en el riesgo» , lo que significa que cuanto mayor es el riesgo de causar daño a la sociedad, más estrictas son las normas. Es el primero de su tipo en el mundo y puede establecer un estándar global para la regulación de la IA.
La nueva ley tiene como objetivo fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en todo el mercado único de la UE por parte de actores públicos y privados. Al mismo tiempo, pretende garantizar el respeto de los derechos fundamentales de los ciudadanos de la UE y estimular la inversión y la innovación en inteligencia artificial en Europa. La ley de IA se aplica sólo a áreas dentro de la legislación de la UE y proporciona exenciones, como por ejemplo para sistemas utilizados exclusivamente con fines militares y de defensa, así como con fines de investigación.
Mathieu Michel, secretario de Estado belga de digitalización, simplificación administrativa, protección de la privacidad y regulación de la construcción, ha afirmado que «la adopción de la ley sobre IA es un hito importante para la Unión Europea. Esta ley histórica, la primera de su tipo en el mundo, aborda un desafío tecnológico global que también crea oportunidades para nuestras sociedades y economías. Con la ley de IA, Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad cuando se trata de nuevas tecnologías y, al mismo tiempo, garantiza que esta tecnología en rápida evolución pueda florecer e impulsar la innovación europea».
MODELOS DE IA
La ley de IA también aborda el uso de modelos de IA de propósito general (GPAI) .
Los modelos GPAI que no presenten riesgos sistémicos estarán sujetos a algunos requisitos limitados, por ejemplo con respecto a la transparencia, pero aquellos con riesgos sistémicos tendrán que cumplir con reglas más estrictas.
Para garantizar una aplicación adecuada, se crean varios órganos de gobierno:
- Una Oficina de IA dentro de la Comisión para hacer cumplir las normas comunes en toda la UE
- Un panel científico de expertos independientes para apoyar las actividades de aplicación de la ley.
- Una Junta de IA con representantes de los estados miembros para asesorar y ayudar a la Comisión y a los estados miembros en la aplicación consistente y efectiva de la Ley de IA.
- Un foro consultivo para que las partes interesadas proporcionen conocimientos técnicos a la Junta de IA y a la Comisión.
PENALIZACIONES
Las multas por infracciones de la ley de IA se fijan como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, lo que sea mayor. Las pymes y las empresas de nueva creación están sujetas a multas administrativas proporcionales.
TRANSPARENCIA
Antes de que algunas entidades que prestan servicios públicos implementen un sistema de IA de alto riesgo, será necesario evaluar el impacto sobre los derechos fundamentales . El reglamento también prevé una mayor transparencia con respecto al desarrollo y uso de sistemas de inteligencia artificial de alto riesgo. Los sistemas de IA de alto riesgo, así como ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas, deberán estar registrados en la base de datos de la UE para sistemas de IA de alto riesgo, y los usuarios de un sistema de reconocimiento de emociones tendrán que informar a las personas naturales. personas cuando están expuestas a dicho sistema.
APOYO A LA INNOVACIÓN
La Ley de IA proporciona un marco legal favorable a la innovación y tiene como objetivo promover el aprendizaje regulatorio basado en evidencia. La nueva ley prevé que los entornos de pruebas regulatorios de IA , que permiten un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también deberían permitir probar sistemas de IA innovadores en condiciones del mundo real.
————
Este artículo fue publicado originalmente en Aquí Europa, con cuya autorización reproducimos.