Tecnología

Llamado a compañías de IA por mayor transparencia y protección a denunciantes

Published June 4, 2024

Recientemente, un grupo de empleados actuales y anteriores de compañías tecnológicas especializadas en inteligencia artificial (IA) han suscrito un carta en la que subrayan los peligros que dichas tecnologías pueden representar. Este movimiento incluye firmas de personas vinculadas a grandes entidades como OpenAI, Anthropic y Alphabet Inc's Google DeepMind. Estos individuos advierten sobre cómo la IA podría perpetuar las desigualdades existentes, intensificar la propagación de desinformación y dar pie al desarrollo de sistemas de armas autónomos con la capacidad de causar muertes masivas.

Los Peligros de la Inteligencia Artificial

La carta expone una variedad de amenazas, entre ellas el refuerzo de las desigualdades previas, la creciente ola de noticias falsas y el temor a perder el control sobre sistemas de IA autónomos, lo que podría incluso llevar a la extinción humana. Aunque algunos de estos riesgos pueden ser atenuados con directrices adecuadas provenientes de la comunidad científica, legisladores y el público en general, estos trabajadores apuntan que las compañías de IA poseen un fuerte interés económico en evitar una supervisión exhaustiva de sus actividades.

Falta de Transparencia y Medidas de Protección

En la actualidad, a estas empresas de IA no se les exige por ley compartir información con el gobierno sobre las facultades y limitaciones de sus sistemas, las medidas precautorias tomadas o los niveles de riesgo que ciertas actividades conllevan. Es más, se nota una ausencia de regulaciones gubernamentales eficaces que fiscalicen apropiadamente a estas corporaciones.

Los denunciantes se encuentran en una posición única para exigir responsabilidades y la carta remarca la importancia de contar con un panorama más transparente. Sin embargo, los extensos acuerdos de confidencialidad obstaculizan la posibilidad de que empleados expresen públicamente sus preocupaciones. Además, las protecciones convencionales para denunciantes son inadecuadas, puesto que normalmente tratan sobre actividades ilegales, mientras que muchos de los peligros asociados a la inteligencia artificial todavía no están regulados legalmente.

El Caso OpenAI

El llamado a la protección de quienes denuncian inconvenientes llega en un punto crítico para OpenAI, especialmente después de reportes sobre una cultura dominada por la imprudencia y el secretismo dentro de la compañía respaldada por Microsoft Corp. Exmiembros alegan un cambio en la prioridad de OpenAI hacia la búsqueda de lucro y crecimiento sin considerar las consecuencias, destacando técnicas agresivas para silenciar las dudas de sus empleados respecto a la seguridad de las tecnologías que desarrollan.

Estas inquietudes son plasmadas en un contexto ya volátil para OpenAI, recordando incidentes pasados como el desplazamiento y posterior reinstauración de Sam Altman como jefe ejecutivo, ante inquietudes sobre su transparencia con la dirección de la empresa.

transparencia, IA, denunciantes