Lanzan certificación para modelos de IA que respetan los derechos de autor
En medio de un intenso debate sobre los derechos de autor y la ética en la inteligencia artificial generativa, una organización sin ánimo de lucro llamada Fairly Trained, fundada por el exejecutivo de Stability AI, Ed Newton-Rex, ha lanzado una iniciativa para evaluar y certificar modelos de IA que respeten los derechos de los creadores.
Iniciativa de Certificación de Modelos de IA
Esta iniciativa, que comenzó el miércoles 17 de enero, ofrece una forma transparente para que consumidores y empresas identifiquen modelos de IA que han sido entrenados con datos obtenidos con el consentimiento de los creadores, lo que puede influir en la forma en que la industria aborda los derechos de autor y los derechos creativos.
Un Enfoque más Ético para los Datos de Entrenamiento
A diferencia del argumento de 'uso justo' empleado por algunas compañías de IA, que permite la recopilación de datos sin permiso explícito, la certificación de 'Modelo Licenciado' de Fairly Trained evalúa y certifica los modelos de IA basándose en las fuentes de datos de entrenamiento.
Ed Newton-Rex dejó Stability AI por preocupaciones sobre su postura respecto al uso justo, creyendo que socava los derechos de los creadores ante el potencial competitivo comercial de la IA.
Apoyo de la Industria y Compromiso con la Ética
Desde su lanzamiento, Fairly Trained ha recibido apoyo de varias organizaciones, incluyendo la Asociación de Editores Americanos y el Grupo Universal de Música, y ya ha certificado a nueve startups centradas en la generación de sonido e imagen.
Estos esfuerzos están encaminados a asegurar que las empresas cumplan con estándares éticos rigurosos en la adquisición de datos, promoviendo así prácticas más justas para los creadores de contenido original.
IA, derechos, ética