Tecnología

La UE acuerda reglas ‘históricas’ para regular la IA, un precedente mundial

Published December 11, 2023

La Unión Europea ha marcado un hito al convertirse en la primera entidad política en acordar un conjunto de reglas para regular la inteligencia artificial. Thierry Breton, figura clave en el mercado interno, reveló que el Acta de IA, que se espera entre en vigor en 2025, pretende ser un 'trampolín' para que las empresas emergentes y los investigadores de la UE lideren la carrera global de la IA.

Un acuerdo esperanzador después de intensas negociaciones

Después de intensas negociaciones durante el pasado fin de semana, los miembros del Parlamento de la UE y del Consejo llegaron a un acuerdo sobre el Acta de IA. Propuesto inicialmente a principios de 2021 y aprobado por el Parlamento en junio, esta iniciativa busca establecer un conjunto de normativas para categorizar los diferentes sistemas de IA según el riesgo que representen, supervisar su uso y evitar su mal uso dentro de la UE.

La innovación responsable y los valores europeos

Ursula von der Leyen, presidenta de la Comisión, calificó este momento de histórico y afirmó que el Acta de IA 'transfiere los valores europeos a una nueva era', promoviendo la 'innovación responsable' en Europa. Al garantizar la seguridad y los derechos fundamentales de la población, se respaldará el desarrollo y la implementación de una IA confiable en el territorio de la UE.

Enfoque basado en el riesgo y categorías claras

Las nuevas reglas, a la espera de aprobación formal por parte del Parlamento y el Consejo, se implementarán de manera directa y uniforme en todos los estados miembros, basándose en un enfoque de cuatro categorías de riesgo: mínimo, alto, inaceptable y riesgo específico de transparencia.

Los sistemas de IA de riesgo mínimo como los sistemas de recomendación o filtros anti-spam tendrán 'vía libre' sin obligaciones. Por otro lado, los sistemas de alto riesgo que involucren infraestructuras críticas, ejecución de la ley y ciertos sistemas biométricos estarán sometidos a reglas estrictas.

La IA que se considere una 'amenaza clara' para los derechos fundamentales de los ciudadanos de la UE será clasificada como inaceptable y prohibida. Esto incluye IA que manipula el comportamiento humano hasta el punto de 'eludir' la voluntad libre del usuario, como juguetes con asistencia de voz que animen a conductas peligrosas en menores o sistemas que permitan la 'puntuación social' por parte de gobiernos o empresas.

Transparencia y límites a la identificación biométrica

En la categoría de riesgo específico de transparencia, la UE requerirá que sistemas de IA como chatbots revelen que el usuario está interactuando con una máquina. Esto significa que los 'deep fakes' deberán estar etiquetados y los usuarios informados cuando se utilicen sistemas de categorización biométrica o de reconocimiento de emociones.

Las nuevas reglas establecen multas sustanciales para aquellas empresas que no cumplan con las normas, pudiendo alcanzar hasta €35 millones o el 7% del volumen de negocios global, lo que sea mayor.

Aunque ya se ha llegado a un acuerdo, todavía pasarán algunos años antes de que las reglas se hagan plenamente efectivas. A excepción de algunas disposiciones específicas, el Acta de IA será aplicable dos años después de su entrada en vigor, con prohibiciones que aplicarán a los seis meses y reglas sobre IA de propósito general al cabo de un año.

A pesar del optimismo generalizado, la semana pasada la Alianza Europea de PYMEs Digitales expresó su preocupación por posibles cambios en el Acta de IA, como permitir que las grandes compañías tecnológicas se autorregulen sus modelos de IA fundamentales, lo que podría trasladar responsabilidades a las pequeñas empresas y crear barreras de entrada. No está claro si este asunto ha sido resuelto.

IA, regulación, UniónEuropea