Desafío energético: la revolución de las IA está encontrando sus límites físicos

Posted on
Desafío energético: la revolución de las IA está encontrando sus límites físicos

Los centros de datos se están haciendo cada vez más necesarios con la llegada de la IA generativa. / Robotitus/Playground

La fiebre por la inteligencia artificial generativa se ha centrado en los chips de Nvidia y aplicaciones como ChatGPT de OpenAI. Detrás de esta euforia hay una carrera para construir la infraestructura necesaria para entrenar y ejecutar modelos de IA generativa (GenAI). Sin embargo, la capacidad del mundo para construir, alimentar y enfriar estas instalaciones determinará los límites físicos de este auge.

 

Mucha energía

La creciente demanda de IA contrasta con los desafíos más mundanos de construir y operar centros de datos, que consumen grandes cantidades de electricidad. 

Los centros de datos «hiperescaladores», utilizados principalmente para almacenamiento de datos y servicios de computación en la nube, típicamente tienen una capacidad de 20 a 50 megavatios (MW)La llegada de GenAI requiere mayor potencia de procesamiento y, por ende, más electricidad. Un estudio indica que una búsqueda en ChatGPT consume diez veces la energía de una búsqueda en Google.

La construcción de nuevos centros de datos está poniendo a prueba la infraestructura energética. En 2022, estos centros consumieron alrededor de 460 teravatios hora (TWh), o el 2% de la demanda mundial de electricidad. En Europa, se espera que representen el 4% de la demanda de energía para 2035, frente al 1% actual. 

Una posible solución es construir centros de datos en regiones con climas más fríos y abundancia de energía hidroeléctrica, como Escandinavia. Sin embargo, estos países están siendo cautelosos. Suecia eliminó incentivos fiscales para centros de datos el año pasado y Noruega abandonó un proyecto de 1,000 MW debido a cambios en las regulaciones.

 

Carrera

Los centros de datos gigantes en ubicaciones remotas son ideales para entrenar modelos de IA, pero la proximidad física es crucial para aplicaciones como ChatGPT. Para 2028, el 85% de las cargas de trabajo de IA se realizará en servidores de «inferencia», que requieren ubicaciones cercanas a los usuarios finales.

La demanda de estos centros locales superará a la de los centros de entrenamiento remotos. Adaptar instalaciones existentes es complejo y costoso, ya que los chips más potentes de GenAI requieren sistemas de enfriamiento líquido directos, mucho más caros que la refrigeración por aire.

La escasez de oferta ha llevado a una carrera por tierras y recursos entre empresas tecnológicas y firmas de inversión. Por ejemplo, Sam Altman, CEO de OpenAI, ha propuesto que las necesidades energéticas de la IA se satisfagan con energía de fusión nuclear.