NIST publica guía de ciberseguridad para desarrolladores de IA
El Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST) ha emitido una advertencia a los desarrolladores y usuarios de sistemas de inteligencia artificial (IA): no existe aún un método infalible para proteger dichos sistemas contra engaños y manipulaciones, y se debe tener cautela ante cualquiera que afirme lo contrario.
Guía para combatir vulnerabilidades en IA
La guía de NIST, dirigida a los desarrolladores de aplicaciones, identifica las vulnerabilidades de los sistemas de IA predictivos y generativos, así como de aprendizaje automático (ML), los tipos de ataques que podrían sufrir y las posibles estrategias de mitigación.
Ataques y contaminación de sistemas de IA
NIST destaca que los sistemas de IA pueden ser confundidos o 'envenenados' deliberadamente para causar un mal funcionamiento. Esto se debe, en parte, a que los datos utilizados para su entrenamiento pueden no ser confiables, provenientes de fuentes como sitios web e interacciones con el público, los cuales están abiertos a la corrupción por actores maliciosos.
Por ejemplo, los chatbots pueden aprender a emitir respuestas ofensivas o racistas si los controles apropiados se ven comprometidos por comentarios maliciosos diseñados cuidadosamente.
Tipos de ataques a sistemas de IA
El informe detalla que los ataques pueden ser:
— ataques de evasión: que buscan alterar una entrada para cambiar la respuesta del sistema tras su despliegue. Un ejemplo es modificar visualmente las señales de tráfico para confundir a un vehículo autónomo.
— ataques de envenenamiento: que introducen datos corruptos durante la etapa de entrenamiento. Por ejemplo, un chatbot podría aprender lenguaje inapropiado si los registros de conversación están contaminados.
— ataques a la privacidad: que tratan de obtener información sensible sobre el IA o sus datos durante el despliegue.
— ataques de abuso: que insertan información incorrecta en fuentes que el IA usa para aprender.
Estrategias de mitigación y desafíos
Para ayudar a los desarrolladores, NIST ofrece una visión general de los tipos de ataques y estrategias correspondientes para reducir los daños, como la sanitización de datos y modelos, y técnicas criptográficas para atestiguar el origen y la integridad de los sistemas de IA.
No obstante, el informe también reconoce la falta de puntos de referencia confiables para evaluar el rendimiento de las mitigaciones y el hecho de que diseñar mitigaciones adecuadas sigue siendo un desafío y un proceso intrínsecamente ad hoc y falible.
Adicionalmente, el desarrollo y compra de sistemas de IA implicará aceptar ciertos compromisos entre atributos como precisión y robustez frente a ataques adversos.
Por último, expertos en la materia han elogiado el informe de NIST por su profundidad y cobertura, calificándolo como uno de los mejores en el tema de seguridad de IA.
NIST, ciberseguridad, IA