La producción de inteligencia artificial se dirige a una crisis de energía

Posted on
La producción de inteligencia artificial se dirige a una crisis de energía

Imagen referencial de un centro de datos. / Robotitus/ChatGPT

La inteligencia artificial está creciendo a lo loco, pero ese crecimiento viene con un problema: está consumiendo un montón de energía. Y no hablamos de poco. Todo el sistema de IA depende de los centros de datos, que son como los cerebros de estas máquinas. Pero estos lugares consumen electricidad como si no hubiera un mañana.

Según la Agencia Internacional de Energía, para 2030 podrían estar usando el 3% de toda la electricidad del planeta. El doble de lo que usan ahora.

La  firma de consultoría McKinsey dice que estamos corriendo una carrera para construir más centros de datos y no quedarnos sin energía en el camino. Entonces hay dos opciones: producir más electricidad (lo cual toma tiempo), o hacer que la IA use menos energía para hacer lo mismo. 

¿Soluciones?

Mosharaf Chowdhury, un profesor de informática, dice que con ideas inteligentes se puede lograr. Y no solo desde el software, sino también desde el hardware. En su laboratorio ya crearon algoritmos que calculan cuánta energía necesita cada chip de IA. Así logran ahorrar entre 20 y 30 por ciento de energía.

Hace veinte años, enfriar un centro de datos gastaba tanta energía como los propios servidores. Hoy, eso se ha reducido a solo un 10%. Esto es gracias a un enfoque más eficiente. Por ejemplo, ya se usan sensores con IA para enfriar solo donde se necesita, no todo el edificio.

Así ahorran agua, luz y mantienen las máquinas a buena temperatura sin malgastar recursos. Y lo hacen en tiempo real. Pero lo que puede cambiar el juego es el enfriamiento con líquido. En vez de usar aire acondicionado, se enfría directamente con un líquido especial.

Los grandes como Amazon ya están usando este sistema. Es más silencioso, más eficiente y no requiere reconstruir los centros de datos desde cero. Esto es crucial porque los chips modernos, como los de Nvidia, consumen 100 veces más energía que los antiguos.

AWS, la nube de Amazon, diseñó su propio sistema de enfriamiento líquido para estos chips. Lo anunciaron en un video de YouTube la semana pasada. La buena noticia es que cada nueva generación de chips consume menos energía que la anterior..

Además, hay investigaciones que muestran que estos chips pueden durar más sin perder potencia, si se programan bien. El problema: las empresas de chips no están tan felices con eso. Ganarían menos si la gente no compra nuevo hardware todo el tiempo. 

Carrera 

Aunque se logren estas mejoras, igual el consumo de energía seguirá subiendo. Solo que tal vez lo haga más lento. Estados Unidos ya se dio cuenta de que la energía es clave para no quedarse atrás frente a China en esta carrera tecnológica.

China, por cierto, ya hizo un modelo de IA que compite con los mejores de EE.UU., usando menos chips y menos energía. Y para colmo, tiene más acceso a energía renovable y nuclear. Así que sí, la pelea por la IA también es una pelea por la energía.