El destino de las normativas de inteligencia artificial de la Unión Europea en un punto crítico
En la Unión Europea, las regulaciones pioneras sobre la inteligencia artificial (IA) están a punto de definirse en una fase crítica. Los negociadores están esforzándose para concluir los últimos detalles de las normativas esta semana, en medio de desafíos planteados por el auge repentino de la IA generativa que puede producir trabajos de apariencia humana.
Países se suman a la carrera regulatoria
Detrás de la UE, potencias como EE.UU., Reino Unido, China y coaliciones globales han comenzado a trabajar en marcos regulatorios para esta tecnología en rápido desarrollo. Esta tendencia global resalta las preocupaciones de investigadores y grupos de derechos sobre los posibles peligros existenciales y los riesgos cotidianos asociados con la IA generativa.
Un debate dividido en el bloque europeo
El Acta de IA de la UE, propuesta por primera vez en 2019 y presentada en 2021, se consideró como la legislación de IA más integral a nivel mundial. Sin embargo, la discusión se ha estancado por desacuerdos sobre la regulación de sistemas que soportan servicios de IA de propósito general, como los chatbots de OpenAI y Google. Mientras que las grandes empresas tecnológicas argumentan contra una regulación excesiva que limita la innovación, los legisladores europeos buscan salvaguardas adicionales para los sistemas avanzados de IA que dichas empresas desarrollan.
El borrador original de la Comisión Europea apenas tocaba el tema de los sistemas de IA de propósito general como los chatbots. El Plan consistía en clasificar los sistemas de IA en cuatro niveles de riesgo y se enfocaba principalmente en pruebas de seguridad de productos. Sin embargo, el impulso de la IA generativa, capaz de componer música, crear imágenes y redactar ensayos, ha llevado a los legisladores de la UE a fortalecer el Acta de IA extendiéndola a los modelos fundamentales entrenados con vastas cantidades de datos de internet.
Los modelos de referencia otorgan a los sistemas de IA generativa, como ChatGPT, la habilidad de crear algo nuevo. Este hecho ha resaltado la importancia de la rigurosidad en la gobernanza corporativa relacionada con la IA, particularmente tras ciertas turbulencias en empresas como OpenAI.
La resistencia a las normas gubernamentales para estos sistemas de IA ha surgido de manera sorpresiva desde países prominentes como Francia, Alemania e Italia. Estos buscaban posicionar mejor a sus propias startups de IA frente al dominio de las corporaciones estadounidenses. Sin embargo, afamados expertos en computación advierten que una debilitación de la Acta de IA sería un fracaso histórico.
El delicado equilibrio entre innovación y regulación
La presión por una regulación adecuada viene también desde voces importantes en la industria, sugiriendo que la IA es demasiado relevante como para quedarse sin regulación. Compañías como Google instan a que la competencia se centre en la calidad de la regulación y no simplemente en ser los primeros.
En el centro del debate actual está el cómo abordar los modelos fundamentales, dado que su regulación podría contradecir la lógica de la ley, que se basa en los riesgos específicos de los usos determinados de la IA. Existe también un debate acalorado sobre si se debería prohibir el reconocimiento facial en tiempo real.
Un futuro incierto
Con el tiempo apremiante antes de las elecciones al Parlamento Europeo, las negociaciones de la UE están llegando a uno de sus últimos momentos críticos. Aunque se llegue a un acuerdo, aún debe ser ratificado por los legisladores de la UE antes de una transición típica de dos años. De no resolverse pronto, la legislación podría ser aplazada hasta la llegada de nuevos líderes con diferentes perspectivas sobre la IA.
IA, UE, regulación