Rivales en razonamiento de IA: Tencent destaca el rendimiento de su nuevo modelo frente a DeepSeek-R1
El gigante tecnológico chino Tencent ha lanzado una nueva oferta que aprovecha el aprendizaje por refuerzo a gran escala, una técnica que también utiliza DeepSeek en su modelo de razonamiento R1, lanzado en enero. Este nuevo modelo se denomina T1.
La versión presentada es oficial y se lanzó después de una fase beta denominada T1-preview, que estuvo en funcionamiento en su chatbot Yuanbao. T1 obtuvo 87.2 puntos en el benchmark Massive Multitask Language Understanding (MMLU), una prueba que evalúa el conocimiento de un modelo. Esta puntuación supera los 84 puntos de DeepSeek-R1, aunque se queda por detrás de los 89.3 puntos logrados por el modelo de razonamiento o1 de OpenAI, que se lanzó en diciembre.
Además de su desempeño en MMLU, T1 ha alcanzado altas puntuaciones en otras pruebas. Por ejemplo, en el American Invitational Mathematics Examination (AIME) 2024, obtuvo 78.2 puntos, ligeramente por detrás de R1 y su 79.8, así como de o1 con 79.2 puntos. En cuanto a las capacidades en lengua china, T1 destacó con 91.8 puntos en la evaluación de C-Eval, empatando con R1 y superando los 87.8 puntos de o1, según Tencent.
T1 también compite con DeepSeek en términos de precios, un área en la que la startup china ha tenido una ventaja. T1 cobra 1 yuan (US$0.14) por cada 1 millón de tokens de entrada, mientras que la salida tiene un costo de 4 yuanes por millón de tokens. Las tarifas de entrada son similares a las de R1, que cobra 1 yuan por millón de tokens durante el día y solo 0.25 yuanes durante la noche. Los precios de salida también son comparables, dado que R1 cobra 16 yuanes por millón de tokens durante el día y 4 yuanes por millón durante la noche.
Tencent ha afirmado ser pionero en la adopción de una arquitectura híbrida que combina el modelo Transformer de Google con Mamba, desarrollado por la Universidad Carnegie Mellon y la Universidad de Princeton. Según Tencent, este enfoque híbrido reduce significativamente los costos de entrenamiento e inferencia al disminuir el uso de memoria en comparación con una arquitectura puramente Transformer.
IA, tecnología, Tencent