Tecnología

Ingeniero de Microsoft expresa preocupaciones de seguridad al FTC sobre el generador de imágenes AI Copilot Designer

Published March 6, 2024

Un ingeniero de Microsoft ha informado a la Comisión Federal de Comercio (FTC) sobre los riesgos potenciales asociados con el generador de imágenes AI de la compañía, Copilot Designer. Shane Jones, empleado de Microsoft por seis años, redactó una misiva dirigida al FTC en la cual afirmó que la empresa 'se negó' a retirar el producto a pesar de las advertencias indicando que la herramienta tiene la capacidad de crear imágenes perjudiciales.

Pruebas Exponen Deficiencias de Seguridad

Durante las pruebas de seguridad y calidad realizadas al Copilot Designer, Jones descubrió que la herramienta era capaz de crear 'demonios y monstruos', así como contenido asociado con derechos al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en contextos violentos, y menores de edad involucrados en consumo de alcohol y drogas. Según informes, este software AI también generaba imágenes de personajes de Disney en situaciones inapropiadas, incluyendo a Elsa de Frozen en escenarios conflictivos como la Franja de Gaza.

Reacciones y Medidas de Microsoft

Jones había estado alertando a Microsoft sobre las implicaciones del modelo DALLE-3, empleado por Copilot Designer, desde diciembre. A pesar de sus esfuerzos y de publicar una carta abierta en LinkedIn, su publicación fue retirada tras el contacto de los abogados de Microsoft. 'Durante los últimos tres meses, he instado reiteradamente a Microsoft a retirar el Copilot Designer del uso público hasta que se establezcan mejores protecciones', expresó Jones en la carta revelada por CNBC. Microsoft no ha respondido inmediatamente a las solicitudes de comentarios.

En enero, Jones dirigió una carta a un grupo de senadores estadounidenses tras la generación de imágenes explícitas de Taylor Swift por parte del Copilot Designer, que se difundieron rápidamente. El CEO de Microsoft, Satya Nadella, calificó las imágenes de 'alarmantes y terribles' y prometió trabajar para implementar más controles de seguridad. El mes pasado, Google deshabilitó temporalmente su propia herramienta generadora de imágenes AI cuando los usuarios descubrieron que creaba imágenes inexactas históricamente, como nazis de diferentes razas.

Microsoft, inseguridad, regulación