El Ejército de EE. UU. Utiliza la IA 'Thunderforge' para Simulaciones de Guerra y Planificación de Operaciones
A medida que aumentan las tensiones geopolíticas, el Departamento de Defensa de EE. UU. (DoD) está ampliando su integración de inteligencia artificial para mantenerse a la vanguardia. El DoD se está asociando con agentes de IA para simular enfrentamientos con adversarios extranjeros.
El miércoles, la Unidad de Innovación del Defensa, una organización del Departamento de Defensa, otorgó un contrato de prototipo a Scale AI, con sede en San Francisco, para construir Thunderforge, una plataforma de IA diseñada para mejorar la toma de decisiones en el campo de batalla.
“Thunderforge será el programa insignia dentro del DoD para la planificación y operaciones militares basadas en IA”, dijo el CEO de Scale AI, Alexandr Wang, el miércoles en X.
Fundada en 2016 por Wang y Lucy Guo, Scale AI ayuda a acelerar el desarrollo al proporcionar datos etiquetados y la infraestructura necesaria para entrenar modelos de IA.
Para desarrollar Thunderforge, Scale AI trabajará con gigantes tecnológicos como Microsoft y Google, así como con el contratista de defensa estadounidense Anduril Industries, según Wang.
Inicialmente, Thunderforge se desplegará en el Comando del Indo-Pacífico de EE. UU., que opera en el Océano Pacífico, el Océano Índico y partes de Asia, y el Comando Europeo de EE. UU., que supervisa Europa, el Medio Oriente, el Ártico y el Océano Atlántico.
Thunderforge apoyará la estrategia de campaña, la asignación de recursos y las evaluaciones estratégicas, de acuerdo con un comunicado el miércoles.
“Thunderforge aporta análisis y automatización impulsados por IA a la planificación operativa y estratégica, lo que permite a los tomadores de decisiones operar al ritmo requerido para los conflictos emergentes”, dijo Bryce Goodman, líder del programa Thunderforge de DIU, en el comunicado.
El enfoque en la IA o “Guerra Agente” representa un cambio desde la guerra tradicional, donde los expertos coordinan manualmente los escenarios y toman decisiones durante días, hacia un modelo impulsado por IA en el que las decisiones pueden tomarse en minutos.
Asegurar que la IA funcione de manera confiable en aplicaciones de defensa del mundo real es especialmente desafiante, sobre todo cuando se enfrenta a escenarios impredecibles y consideraciones éticas.
“Estas IA se entrenan con datos históricos recopilados y datos simulados, que pueden no cubrir todas las situaciones posibles en el mundo real”, dijo Sean Ren, profesor de Ciencias de la Computación en USC, en una entrevista. “Además, las operaciones de defensa son casos de uso de alto riesgo, por lo que necesitamos que la IA entienda los valores humanos y tome decisiones éticas, lo que todavía está en investigación activa.”
Retos y salvaguardias
Como fundador de Sahara AI, un desarrollador de IA descentralizada con sede en Los Ángeles, Ren comentó sobre los desafíos significativos en la creación de simulaciones de guerra impulsadas por IA en términos de precisión y adaptabilidad.
“Creo que dos aspectos clave hacen esto posible: recolectar una gran cantidad de datos del mundo real para referencia al construir simulaciones de guerra e incorporar diversas restricciones tanto de aspectos físicos como humanos”, dijo.
Para crear una IA adaptativa y estratégica para las simulaciones de guerra, Ren destacó la importancia de utilizar métodos de entrenamiento que permitan al sistema aprender de la experiencia y refinar su toma de decisiones a lo largo del tiempo.
“El aprendizaje por refuerzo es una técnica de entrenamiento de modelos que puede aprender de los ‘resultados/retroalimentación’ de una serie de acciones”, explicó. “En las simulaciones de guerra, la IA puede tomar acciones exploratorias y buscar resultados positivos o negativos en el entorno simulado.”
A medida que se expande el papel de la IA en la estrategia militar, el Pentágono está formando más acuerdos con empresas privadas de IA como Scale AI para fortalecer sus capacidades.
Si bien la idea de que las IA sean utilizadas por las fuerzas militares puede evocar imágenes de “Terminator”, desarrolladores de IA militar como Kratos Defense, con sede en San Diego, aseguran que ese miedo es infundado.
“En el contexto militar, estamos viendo mayormente autonomía avanzada y elementos de aprendizaje automático clásico, donde las máquinas ayudan en la toma de decisiones, pero esto normalmente no implica decisiones sobre el uso de armas”, dijo Steve Finley, presidente de la División de Sistemas No Tripulados de Kratos Defense. “La IA acelera sustancialmente la recopilación y análisis de datos para formar decisiones y conclusiones.”
Una de las mayores preocupaciones al discutir la integración de IA en operaciones militares es asegurarse de que la supervisión humana siga siendo una parte fundamental de la toma de decisiones, especialmente en escenarios de alto riesgo.
“Si está involucrada un arma o una maniobra que arriesga vidas humanas, siempre hay un tomador de decisiones humano involucrado”, dijo Finley. “Siempre hay una salvaguarda: un 'detener' o 'mantener' para cualquier lanzamiento de arma o maniobra crítica.”
militar, IA, tecnología