Foxconn lanza un modelo de lenguaje grande en chino para la fabricación impulsada por IA
El grupo Foxconn, reconocido como el mayor fabricante de productos electrónicos por contrato del mundo y un importante proveedor de iPhones para Apple, ha presentado su primer modelo de lenguaje grande en chino (LLM) entrenado con caracteres tradicionales. Este lanzamiento marca un avance considerable en el uso de la inteligencia artificial (IA) en las fábricas, a medida que la empresa taiwanesa busca integrar más tecnología en sus operaciones.
El nuevo modelo, llamado FoxBrain, se desarrolló utilizando un método de entrenamiento "más eficiente y de menor costo" en un período de solo cuatro semanas. Según un comunicado emitido por Foxconn, propiedad formalmente de Hon Hai Precision Industry, este hito es significativo para el desarrollo de la tecnología de IA en Taiwán.
FoxBrain se entrenó con 120 unidades de procesamiento gráfico (GPU) Nvidia H100, lo que le permite destacar en matemáticas y razonamiento lógico, según lo informado por Foxconn.
Inicialmente diseñado para aplicaciones internas dentro de la empresa, Foxconn ha anunciado que el modelo será de código abierto en el futuro. Esto forma parte de sus esfuerzos por colaborar con socios tecnológicos para ampliar las aplicaciones de la IA y fomentar su uso en la fabricación.
Los modelos de lenguaje grande son la base de servicios de IA generativa, como ChatGPT de OpenAI. El código abierto permite que el público acceda al código fuente de un software, lo que habilita a los desarrolladores de terceros para modificar o compartir su diseño, corregir enlaces rotos o ampliar sus capacidades.
Esta iniciativa de Foxconn subraya su objetivo de impulsar sus propios avances en inteligencia artificial para mejorar la eficiencia en la fabricación. Este paso se produce después del lanzamiento, este año, del modelo de razonamiento R1 por parte de la start-up china DeepSeek, que también fue abierto al público y desarrollado a un costo inferior en comparación con modelos de IA de grandes compañías como OpenAI, Google y Meta Platforms.
Li Yung-Hui, director del Centro de Investigación en Inteligencia Artificial de la Hon Hai Research Institute, destacó en el comunicado que "en los últimos meses, el avance de las capacidades de razonamiento y el uso eficiente de las GPU se han convertido en el desarrollo principal en el campo de la IA". "Nuestro modelo FoxBrain adoptó una estrategia de entrenamiento muy eficiente, enfocándose en optimizar el proceso de entrenamiento en lugar de acumular poder de cómputo de forma indiscriminada", agregó.
El nuevo modelo se basa en la arquitectura Meta Llama 3.1, que cuenta con 70 mil millones de parámetros. Foxconn afirma que FoxBrain supera al modelo Llama-3-Taiwan-70B, otro modelo de código abierto ajustado para caracteres chinos tradicionales y datos en inglés, en la mayoría de las categorías del TMMLU+, que es un banco de pruebas para la comprensión del lenguaje chino tradicional.
Los modelos desarrollados por empresas chinas como DeepSeek están generalmente entrenados para una mejor comprensión de los caracteres en chino simplificado, que son utilizados en el continente.
En noviembre pasado, la empresa había anunciado que estaba trabajando con Nvidia para aprovechar la tecnología de "gemelos digitales" en la fabricación y en la gestión de la cadena de suministro. Esta iniciativa utiliza el motor Omni verse de Nvidia para optimizar las operaciones de las fábricas globales, mejorar la resiliencia y garantizar la calidad constante.
Foxconn, IA, fabricación