Tecnología

OpenAI modifica su política de uso para permitir aplicaciones militares de su IA

Published January 15, 2024

OpenAI, la compañía conocida por desarrollar ChatGPT, ha actualizado su política de términos y condiciones, eliminando anteriormente la prohibición explícita de usar su tecnología de inteligencia artificial en aplicaciones militares.

Antecedentes de la política de uso

Inicialmente, la política de uso de la compañía incluía una prohibición de actividades con alto riesgo de daño físico, lo que específicamente mencionaba el 'desarrollo de armas' y la 'militarización y la guerra'. Esta restricción impedía a entidades como el Departamento de Defensa de los Estados Unidos o a otros militares estatales hacer uso de la tecnología de IA de OpenAI.

Cambios en la política de uso

Con una reciente actualización, la política parece suavizar la postura previa, aunque mantiene la advertencia de no utilizar el servicio para dañar a uno mismo o a otros, y pone como ejemplo el desarrollo o uso de armas en este contexto. Sin embargo, la mención explícita a 'militar y guerra' ha desaparecido de la política.

Esta modificación parece ser parte de un esfuerzo por hacer el documento más accesible y entendible, según explicó OpenAI en una entrada de blog. La nueva versión promueve que el software se utilice para maximizar la 'innovación y la creatividad', concediendo gran flexibilidad siempre que se ajuste a la ley.

Implicaciones de la actualización de la política

Por ahora, las consecuencias prácticas de este cambio en la política de uso no están del todo claras.

La preocupación por los riesgos asociados al uso militar de la IA no es ajena a OpenAI. Un estudio de 2022, coautorizado por investigadores de OpenAI, destaca los riesgos y daños potenciales del uso de modelos de lenguaje de gran escala, como ChatGPT, en la guerra. Investigaciones anteriores también han señalado que estas herramientas de IA podrían ser manipuladas para generar código dañino y ejecutar ataques cibernéticos.

Es importante notar los debates en torno a la ética del uso de sistemas de IA en conflictos armados, como los ataques dirigidos a civiles en Gaza, que resaltan la relevancia de este cambio en la política de uso permitido de OpenAI.

OpenAI, militar, actualización