La UE acuerda reglas ‘históricas’ para regular la IA, un precedente mundial
La Unión Europea ha marcado un hito al convertirse en la primera entidad política en acordar un conjunto de reglas para regular la inteligencia artificial. Thierry Breton, figura clave en el mercado interno, reveló que el Acta de IA, que se espera entre en vigor en 2025, pretende ser un 'trampolín' para que las empresas emergentes y los investigadores de la UE lideren la carrera global de la IA.
Un acuerdo esperanzador después de intensas negociaciones
Después de intensas negociaciones durante el pasado fin de semana, los miembros del Parlamento de la UE y del Consejo llegaron a un acuerdo sobre el Acta de IA. Propuesto inicialmente a principios de 2021 y aprobado por el Parlamento en junio, esta iniciativa busca establecer un conjunto de normativas para categorizar los diferentes sistemas de IA según el riesgo que representen, supervisar su uso y evitar su mal uso dentro de la UE.
La innovación responsable y los valores europeos
Ursula von der Leyen, presidenta de la Comisión, calificó este momento de histórico y afirmó que el Acta de IA 'transfiere los valores europeos a una nueva era', promoviendo la 'innovación responsable' en Europa. Al garantizar la seguridad y los derechos fundamentales de la población, se respaldará el desarrollo y la implementación de una IA confiable en el territorio de la UE.
Enfoque basado en el riesgo y categorías claras
Las nuevas reglas, a la espera de aprobación formal por parte del Parlamento y el Consejo, se implementarán de manera directa y uniforme en todos los estados miembros, basándose en un enfoque de cuatro categorías de riesgo: mínimo, alto, inaceptable y riesgo específico de transparencia.
Los sistemas de IA de riesgo mínimo como los sistemas de recomendación o filtros anti-spam tendrán 'vía libre' sin obligaciones. Por otro lado, los sistemas de alto riesgo que involucren infraestructuras críticas, ejecución de la ley y ciertos sistemas biométricos estarán sometidos a reglas estrictas.
La IA que se considere una 'amenaza clara' para los derechos fundamentales de los ciudadanos de la UE será clasificada como inaceptable y prohibida. Esto incluye IA que manipula el comportamiento humano hasta el punto de 'eludir' la voluntad libre del usuario, como juguetes con asistencia de voz que animen a conductas peligrosas en menores o sistemas que permitan la 'puntuación social' por parte de gobiernos o empresas.
Transparencia y límites a la identificación biométrica
En la categoría de riesgo específico de transparencia, la UE requerirá que sistemas de IA como chatbots revelen que el usuario está interactuando con una máquina. Esto significa que los 'deep fakes' deberán estar etiquetados y los usuarios informados cuando se utilicen sistemas de categorización biométrica o de reconocimiento de emociones.
Las nuevas reglas establecen multas sustanciales para aquellas empresas que no cumplan con las normas, pudiendo alcanzar hasta €35 millones o el 7% del volumen de negocios global, lo que sea mayor.
Aunque ya se ha llegado a un acuerdo, todavía pasarán algunos años antes de que las reglas se hagan plenamente efectivas. A excepción de algunas disposiciones específicas, el Acta de IA será aplicable dos años después de su entrada en vigor, con prohibiciones que aplicarán a los seis meses y reglas sobre IA de propósito general al cabo de un año.
A pesar del optimismo generalizado, la semana pasada la Alianza Europea de PYMEs Digitales expresó su preocupación por posibles cambios en el Acta de IA, como permitir que las grandes compañías tecnológicas se autorregulen sus modelos de IA fundamentales, lo que podría trasladar responsabilidades a las pequeñas empresas y crear barreras de entrada. No está claro si este asunto ha sido resuelto.
IA, regulación, UniónEuropea