Tecnología

Informe revela imágenes de abuso infantil en bases de IA generadoras de imágenes

Published December 20, 2023

Un reciente informe ha destapado una problemática grave en el campo de la inteligencia artificial: miles de imágenes de abuso sexual infantil se hallan en las bases de datos utilizadas para entrenar populares generadores de imágenes por IA. Este descubrimiento ha puesto en alerta a las empresas responsables, pidiéndoles que aborden este peligroso defecto tecnológico.

Impacto en la Seguridad Infantil

Se ha evidenciado que estas imágenes no solo han facilitado la creación de imágenes hiperrealistas e inapropiadas de niños ficticios, sino que también han permitido la conversión de fotografías de redes sociales de adolescentes en desnudos. Este hecho ha causado alarma entre escuelas y fuerzas del orden a nivel global.

El Origen del Problema

Hasta hace poco, se pensaba que las herramientas de IA no revisadas producían imágenes abusivas de niños al combinar conocimientos de dos tipos de imágenes en línea: pornografía adulta y fotos inocentes de menores. Sin embargo, un estudio de Stanford Internet Observatory detectó más de 3,200 imágenes de sospecha de abuso infantil en la base de datos LAION, la cual es utilizada por IA generadoras de imágenes como Stable Diffusion.

Respuesta Inmediata y Retiro de Datasets

Ante la difusión del informe, LAION anunció la retirada temporal de sus conjuntos de datos. LAION, la Red Abierta de Inteligencia Artificial a Gran Escala, tiene una política de cero tolerancia hacia contenido ilegal y, para garantizar la seguridad, ha retirado sus datasets para revisión.

Aunque las imágenes inapropiadas representan una pequeña parte del índice de 5.8 mil millones de LAION, se cree que influyen en la generación de contenidos perjudiciales y perpetúan el abuso de víctimas reales que aparecen en diversas ocasiones.

Desafíos en la Solución

Resolver este problema no es sencillo, en parte debido a que muchos proyectos de IA generativa se han lanzado al mercado de forma precipitada debido a la competitividad del campo.

Empresas y grupos de seguridad infantil pueden asignar 'hashes' a vídeos e imágenes de abuso de menores para rastrear y eliminar tales materiales. Propuestas similares podrían aplicarse a los modelos de IA que se usan de forma indebida.

inteligencia_artificial, abuso_infantil, seguridad