Tecnología

Microsoft implementa nuevas protecciones en Designer tras incidente de deepfake con Taylor Swift

Published January 30, 2024

Los generadores de imágenes con inteligencia artificial (IA) tienen la capacidad de impulsar la creatividad y revolucionar la creación de contenido. Sin embargo, si se usan incorrectamente, pueden generar daños reales, como la difusión de desinformación y perjuicios a la reputación. Microsoft ha tomado cartas en el asunto e implementado nuevas medidas de protección en sus herramientas de IA generativa para evitar abusos futuros.

El problema de los deepfakes viralizados

La semana pasada, deepfakes generados por IA que sexualizaban a Taylor Swift se difundieron ampliamente en Twitter. Estas imágenes, compartidas inicialmente en 4chan y un canal de Telegram, fueron creadas con la aplicación de diseño gráfico de Microsoft, Designer, que incluye Image Creator, un generador de imágenes de IA basado en DALLE-3 capaz de producir imágenes realistas.

Medidas para cerrar brechas

A pesar de que el generador tenía salvaguardias para prevenir el uso inadecuado, los usuarios descubrieron y explotaron lagunas, como la alteración en la ortografía de nombres de celebridades y la descripción de imágenes sin usar términos sexualmente explícitos. Ahora, Microsoft ha remediado estas fallas, volviendo imposible generar imágenes de celebridades en su plataforma. Incluso los intentos de introducir nombres mal escritos de famosos son bloqueados.

Promesa de seguridad y respeto

Un portavoz de Microsoft aseguró a ZDNET que están comprometidos con ofrecer una experiencia segura y respetuosa y que continúan investigando las imágenes inadecuadas, fortaleciendo sus sistemas de seguridad para evitar la generación de este tipo de contenido. Además, el Código de Conducta de Microsoft Designer prohíbe explícitamente la creación de contenido íntimo para adultos o no consensuado, pudiendo resultar en la pérdida del acceso al servicio.

Un juego del gato y el ratón

Aunque algunos usuarios ya buscan maneras de eludir estas protecciones, esto parece ser solo el inicio de una continua batalla entre los actores malintencionados que buscan brechas en las herramientas de IA generativas y las empresas que trabajan diligentemente para cerrarlas.

Microsoft, IA, deepfake