El avance de DeepSeek plantea interrogantes sobre la energía en la IA
La startup china DeepSeek ha cambiado las expectativas en el sector tecnológico y más allá, respecto al costo de la inteligencia artificial, al presentar un nuevo chatbot que está impactando también a la industria energética.
Según la empresa, desarrolló su modelo de código abierto R1 utilizando alrededor de 2,000 chips de Nvidia, una fracción del poder computacional que se pensaba necesario para entrenar programas similares.
Esto tiene implicaciones importantes, no solo en el costo de desarrollo de la IA, sino también en la energía requerida por los centros de datos, que son esenciales en la creciente industria tecnológica.
La revolución de la IA ha venido acompañada de suposiciones de que las necesidades computacionales y energéticas crecerían exponencialmente, lo que ha llevado a inversiones masivas en centros de datos y en la infraestructura para alimentarlos, beneficiando las acciones de las empresas energéticas.
Los centros de datos albergan los servidores de alto rendimiento y otras tecnologías que hacen funcionar las aplicaciones de IA. ¿Podría DeepSeek representar una forma menos demandante en términos de energía para avanzar en la IA?
Los inversores parecieron pensar así y se retiraron de las empresas energéticas estadounidenses el lunes, lo que contribuyó a la caída de los mercados bursátiles, ya presionados por la venta masiva de acciones tecnológicas.
Constellation Energy, que planea construir una capacidad energética significativa para la IA, vio caer sus acciones más de un 20 por ciento.
Travis Miller, estratega de energía y servicios públicos para Morningstar, escribió: "R1 ilustra la amenaza que los avances en eficiencia computacional suponen para los generadores de energía."
"Todavía creemos que los centros de datos, la reubicación de la producción y la electrificación seguirán siendo un viento a favor", agregó. "Pero las expectativas del mercado fueron demasiado lejos".
Solo en 2023, Google, Microsoft y Amazon invirtieron en la construcción de centros de datos el equivalente al 0.5 por ciento del PIB de EE. UU., según la Agencia Internacional de Energía (AIE).
Los centros de datos representan aproximadamente el uno por ciento del uso mundial de electricidad y generan una cantidad similar de emisiones de gases de efecto invernadero, de acuerdo con la AIE.
Las mejoras en la eficiencia han moderado el consumo hasta ahora, a pesar del crecimiento en la demanda de los centros de datos.
Sin embargo, la AIE proyecta que el uso global de electricidad por parte de los centros de datos podría duplicarse con respecto a las cifras de 2022 el próximo año, alcanzando el consumo anual de Japón.
Esta creciente demanda no está distribuida de manera uniforme.
En 2023, los centros de datos representaron alrededor del 4.4 por ciento del consumo eléctrico en EE. UU., cifra que podría ascender hasta el 12 por ciento para 2028, según un informe encargado por el Departamento de Energía de EE. UU.
El año pasado, Amazon, Google y Microsoft firmaron acuerdos para obtener energía nuclear, ya sea de reactores modulares pequeños o de instalaciones existentes.
Meta, por su parte, ha firmado contratos para energía renovable y ha anunciado que busca propuestas para suministros de energía nuclear.
No obstante, los centros de datos generalmente dependen de las redes eléctricas, que a menudo son muy dependientes de combustibles fósiles.
Además, los centros de datos consumen cantidades significativas de agua, tanto de manera indirecta debido al agua utilizada en la generación de electricidad, como directamente para sistemas de refrigeración.
Según Andrew Lensen, profesor de inteligencia artificial en la Universidad Victoria de Wellington, "Construir centros de datos requiere mucho carbono en la producción de acero y también en los procesos de minería y producción intensivos en carbono para crear el hardware computacional que los llena".
"Si DeepSeek reemplazara modelos como los de OpenAI, habría una disminución neta en los requerimientos energéticos".
Sin embargo, el aumento de la eficiencia tecnológica a menudo resulta en un aumento de la demanda, una proposición conocida como la paradoja de Jevons.
"¡La paradoja de Jevons ha vuelto a atacar!" escribió el CEO de Microsoft, Satya Nadella, en X el lunes. "A medida que la IA se vuelve más eficiente y accesible, veremos que su uso se disparará, convirtiéndola en una mercancía que simplemente no podemos tener suficiente".
Lensen también señaló que DeepSeek utiliza un modelo de "cadena de pensamiento" que es más intensivo en energía que otras alternativas, ya que utiliza múltiples pasos para responder a una consulta. Estos modelos solían ser demasiado costosos de operar, pero podrían volverse más populares gracias a las eficiencias.
"El impacto de DeepSeek podría ser ayudar a las empresas estadounidenses a aprender cómo pueden usar las eficiencias computacionales para construir modelos aún más grandes y más eficientes".
"En lugar de hacer su modelo diez veces más pequeño y eficiente con el mismo nivel de rendimiento, creo que usarán los nuevos hallazgos para hacer su modelo más capaz con el mismo consumo energético".
DeepSeek, energía, IA, eficiencia, centros