Ciencia

El ligero riesgo de GPT-4 en la creación de armas biológicas según OpenAI

Published February 1, 2024

OpenAI, la empresa detrás del innovador software de inteligencia artificial GPT-4, ha realizado pruebas iniciales para evaluar los riesgos asociados con su tecnología. Según estos estudios preliminares, el modelo de lenguaje avanzado presenta un riesgo 'como mucho' leve de asistir en la creación de amenazas biológicas.

La preocupación en el mundo tecnológico y gubernamental

Desde hace meses, tanto legisladores como ejecutivos del sector tecnológico expresan su preocupación por el potencial de la IA para facilitar a actores malintencionados el desarrollo de armas biológicas. La posibilidad de que chatbots puedan ser utilizados para buscar información sobre cómo planificar un ataque biológico ha estado en el centro de estas alarmas.

Medidas gubernamentales y esfuerzos de OpenAI

En octubre pasado, como medida de precaución, el presidente Joe Biden firmó una orden ejecutiva sobre la IA, instando al Departamento de Energía a verificar que los sistemas de IA no conlleven riesgos químicos, biológicos o nucleares. En respuesta y con la misma prudencia, OpenAI instauró un equipo de 'preparación' dedicado a minimizar estos y otros riesgos a medida que la tecnología de IA continúa avanzando.

Estudio de OpenAI y sus resultados

Como parte del primer estudio de este equipo de 'preparación', OpenAI convocó a un grupo compuesto por 50 expertos en biología y 50 estudiantes con educación universitaria en biología. La mitad de los participantes utilizó internet junto con una versión de GPT-4 sin restricciones en sus capacidades de respuesta, mientras que el otro grupo sólo tuvo acceso a internet para realizar los mismos ejercicios.

El desafío consistía en idear un método factible para cultivar o producir un compuesto químico en cantidades suficientes para ser usado como arma y planificar su liberación a un grupo específico de individuos. Según el estudio, aquellos con acceso a GPT-4 mostraron un ligero incremento en la 'precisión y completitud' de la información obtenida para crear una amenaza biológica.

A pesar de ser un aumento menor, los investigadores concluyeron que el acceso a GPT-4 ofrece, en el mejor de los casos, un leve impulso en la adquisición de información para la creación de amenazas biológicas. 'Aunque este impulso no es lo suficientemente significativo como para ser concluyente', escribieron, 'nuestros hallazgos son un punto de partida para continuar con la investigación y el debate comunitario'.

Otros estudios en proceso

Aleksander Madry, líder del equipo de 'preparación' y actualmente en una pausa de su puesto como profesor en el Massachusetts Institute of Technology, indicó que éste es solo uno de los varios estudios que el equipo está realizando para comprender el potencial de abuso de la tecnología de OpenAI. Otros estudios en progreso incluyen la exploración del potencial de la IA en la creación de amenazas cibernéticas y como herramienta de persuasión para cambiar creencias.

IA, bioweapons, risks