Prácticas sostenibles para reducir el consumo de energía de la IA
- El auge de la IA generativa y la enorme cantidad de electricidad necesaria para alimentarla amenazan con desviar el rumbo en la transición hacia el uso de fuentes de energía renovables.
- Las redes energéticas de Estados Unidos, Reino Unido y otros países se encuentran entre la espada y la pared mientras tratan de prepararse para un futuro con cero emisiones netas y hacen frente, al mismo tiempo, a los frecuentes picos de demanda energética de los centros de datos.
- Las redes de distribución se están modernizando, pero podría tardar décadas en completarse el proceso. Las empresas de IA generativa y los hiperescaladores tienen que intervenir: un problema provocado por la tecnología necesita una solución tecnológica.
La transformación digital prometía una economía más limpia y ecológica, pero, hoy por hoy, esa transformación está poniendo a prueba las redes energéticas y colapsando los centros de datos. Si no se interviene pronto, las revoluciones de la inteligencia artificial (IA) y las energías renovables parecen abocadas a colisionar. La inteligencia artificial generativa sorprendió al mundo con su increíble potencia y, con ella, un consumo de energía exagerado. Un estudio del Foro Económico Mundial afirma que la energía necesaria para ejecutar las tareas de la IA crece ya a un ritmo anual superior al 26 % y, en 2028, la IA generativa podría consumir más electricidad que Islandia.
¿Pueden los sistemas de generación eólico, solar e hidráulico proporcionar suficiente energía para adaptarse a este ritmo de crecimiento? Y, si no pueden, ¿se verán obligadas las empresas de servicios públicos a mantener los combustibles fósiles en primera línea? Los expertos aseguran que una IA ecológica es posible, pero habrá que cambiar la forma de entrenar los modelos de aprendizaje automático y de programar las aplicaciones de IA. El sector energético necesitará hacer también grandes inversiones en infraestructuras para suministrar energía limpia donde y cuando se necesite.
¿Por qué consume tanta energía la IA generativa?
Los grandes modelos lingüísticos (LLM, por sus siglas en inglés) son el motor que ruge bajo el capó de la IA generativa, y tienen una sed insaciable de combustible. Un estudio de finales de 2023 revisado por expertos prevé que aplicaciones como ChatGPT consumirán entre 85 y 134 teravatios-hora (TWh) en 2027. Eso equivale aproximadamente al consumo de Países Bajos y Suecia en un año.
Shahab Mousavi, investigador de IA de la Universidad de Stanford especializado en sostenibilidad, explica que una serie de cambios recientes han hecho aumentar el consumo de energía de la informática en la nube: “En resumidas cuentas, lo que ha ocurrido es que Nvidia y sus competidores han mejorado constantemente sus unidades de procesamiento gráfico (GPU), adaptándolas a la computación de alto rendimiento y al procesamiento en paralelo. Esto ha sentado las bases para los centros de datos con una potencia de procesamiento increíblemente alta que posibilitan los sistemas de IA actuales”.
“En cierto sentido, han tenido la suerte de poder aprovechar múltiples oleadas de demanda de GPU ―prosigue Mousavi―. Primero, fue para juegos y gráficos; después, llegaron el bitcóin y la minería de criptomonedas, que le dieron un gran impulso. Hoy, junto a las dos fuentes de demanda anteriores, tenemos las aplicaciones de IA, en particular los productos de la IA generativa, que han generado una nueva oleada de demanda. Estos productos efectúan una enorme cantidad de cálculos relativamente sencillos para entrenar sus modelos, para lo que es necesario procesar muchos datos. La posibilidad de ejecutar estas tareas computacionales en paralelo las hace perfectas para que las GPU aceleren el proceso en comparación con las CPU más convencionales”.
Los centros de datos a hiperescala han sido los primeros en sufrir las consecuencias. Repartidos por millones de metros cuadrados en bastidores y armarios, los servidores de IA consumen cada vez más energía para procesar el aluvión de peticiones que les llega. Las GPU se calientan y necesitan mayores cantidades de electricidad para hacer inferencias y mantenerse refrigeradas, poniendo a prueba con frecuencia la capacidad de las redes eléctricas locales.
En un discurso pronunciado en marzo de 2024 ante ejecutivos del sector energético, John Pettigrew, consejero delegado de la National Grid británica, afirmó que la demanda de energía de los centros de datos aumentará un 500 % en la próxima década. Una red de distribución obsoleta está limitando el sistema, advirtió, y añadió que “el futuro crecimiento de tecnologías fundacionales como la inteligencia artificial y la computación cuántica requerirá infraestructuras informáticas de mayor escala y consumo energético”. Con más de 10 500 centros de datos que operan por todo el mundo y cientos más en construcción, el problema no va a desaparecer por sí solo.
El dilema de las energías limpias
¿Por qué no podría la IA usar más electricidad de fuentes solar, eólica e hidráulica? El año pasado se generó en Reino Unido energía limpia suficiente para abastecer a todos los hogares del país. El problema surge cuando se intenta utilizar electrones verdes en respuesta a la demanda de los servicios públicos. En casos como los de California y Texas, donde la capacidad de generar energías renovables ha crecido rápidamente, Mousavi puntualiza: “La red no está optimizada para llevar la energía renovable adonde tiene que ir. Cuando no hay suficiente capacidad de transmisión en comparación con la energía generada, sobre todo en horas de máxima producción, como durante el mediodía para la solar, no hay más remedio que recurrir a la interrupción del suministro, es decir, desconectar la generación de energía renovable de la red”.
Cita como ejemplo las grandes inversiones realizadas en plantas solares en el Valle Central de California: “La red no se diseñó para transmitir la mayor parte de la electricidad que se necesita en la bahía de San Francisco desde lugares del Valle Central en los que ha habido un repunte en la capacidad de generación de energía solar, como en las afueras de Davis y Merced, y aún no se ha modernizado para ello ― sostiene―. Como consecuencia, aunque en la zona de la bahía hay una gran demanda de consumo, no existe la infraestructura de red adecuada para suministrar toda la energía renovable que allí se necesita. Para mantener la estabilidad de la red eléctrica durante los picos de demanda, se recurre a desconectar las fuentes renovables ya instaladas y disponibles, como la solar, y en su lugar se usan centrales tradicionales, conocidas normalmente como ‘plantas pico’”.
La inversión en infraestructuras servirá de ayuda, pero la construcción de las redes eléctricas tarda años o incluso décadas. ¿Qué se puede hacer hoy ante la creciente demanda de electricidad para la IA? Una opción es racionar la capacidad informática, como Amazon Web Services se ha visto obligada a hacer en Irlanda, o incentivar el traslado de los centros de computación a zonas donde abundan las energías renovables para acercar la oferta a la demanda y reducir, así, la presión sobre la red eléctrica. Otra es seguir quemando combustibles fósiles. A pesar de todos sus problemas, las centrales alimentadas por petróleo y gas abundan, son fiables y están bien repartidas cerca de los grandes núcleos de población.
Sin embargo, cuanto más se usen estas fuentes, menor será la urgencia por poner en marcha nuevos proyectos de energías renovables. Estados Unidos tiene una larga lista de proyectos de energía limpia a la espera del visto bueno por parte de los organismos reguladores. Pero a medida que la IA extiende su ámbito de las empresas a los hogares y los dispositivos personales, cualquier “adicionalidad” en materia de nuevos proyectos para la generación de energía renovable podría retrasarse.
Para superar la falta de acceso a energías limpias, los centros de datos han adoptado soluciones como los contratos de compraventa de energía (power purchase agreements, PPA) y los certificados de energía renovable (renewable energy certificates, REC) a fin de compensar o redimir su huella de carbono. “Los PPA y los REC son dos factores clave del aumento en la generación de energías limpias y, aunque han sido una bendición para el sector de las renovables, no son la panacea universal ―destaca Mousavi―. No hacen gran cosa por habilitar mecanismos de rendición de cuentas a los consumidores finales de la electricidad mediante la asignación de responsabilidades por las emisiones. Además, el intercambio de emisiones a través de fórmulas como los REC hace prácticamente imposible conocer el impacto real de dichas emisiones”.
“Como se trata en el documento What’s Scope 2 Good For? (¿Para qué sirve el Alcance 2?), nunca sabremos con exactitud el impacto de las emisiones sin contar con la categoría 3 del alcance 3 [S3C3], y las emisiones de alcance 2 basadas en el mercado [MBS2] no lo permiten ―prosigue―. Tenemos que encontrar un mejor equilibrio entre producción y demanda de renovables. A lo largo de los años hemos aumentado rápidamente la capacidad de generar energías limpias, pero nos hemos quedado cortos a la hora de mejorar las infraestructuras para transmitir esa mayor capacidad de generación allí donde está la demanda”.
Un cambio de modelo
A medida que los responsables políticos elaboran planes para mejorar la distribución de electricidad, las empresas de IA generativa pueden adoptar algunas medidas para reducir la huella de carbono de los LLM.
Reshmi Ghosh, científica especializada en aprendizaje automático de Microsoft, explica que los propios LLM podrían dar paso a modelos más pequeños diseñados para casos de uso específicos. Serían menos voraces desde el punto de vista del consumo de recursos informáticos y, por tanto, necesitarían menos energía. “Hay áreas en las que estos grandes modelos generalizados no funcionan bien ―comenta, señalando los sesgos y resultados erróneos que los modelos de IA generativa a menudo producen―. Hay un campo de investigación en el que participo en el que estudiamos cómo evitar invertir en grandes volúmenes de datos cuando solo tenemos que realizar tareas especializadas”.
Señala el trabajo de Microsoft con pequeños modelos lingüísticos (SLM) y su paquete Phi-3 de código abierto con conjuntos de datos preparados para la IA. Con entre 3000 y 5000 millones de parámetros, son bastante más discretos que los LLM como ChatGPT, que afirma usar 175 000 millones de parámetros o más. Los SLM requieren menos entrenamiento (por ejemplo, la repetición continua de determinadas operaciones para ajustarlas y perfeccionarlas), lo que dará lugar a prácticas de desarrollo de IA más sostenibles. Según Ghosh, se trata de un campo en el que Microsoft está dispuesta a seguir explorando.
“Lo que estamos descubriendo es que no es necesario volver a aprender todo lo que hay en un modelo de datos, sea cual sea su tamaño, porque solo algunas partes contienen información relevante para una determinada tarea o ámbito ―destaca―. Podemos hacer que la IA sea más eficiente si somos más eficientes con los parámetros”.
Por una IA ecológica
Ya antes de ChatGPT, el consumo de energía aumentaba constantemente debido al proceso de electrificación de todo. Los actuales picos de demanda exigen encontrar un equilibrio de entusiasmos, es decir, apoyar la transición hacia un modelo de cero emisiones netas sin frenar el potencial que ofrece la IA. Ghosh y Mousavi sostienen que nuevas inversiones y enfoques serán vitales para hacer la infraestructura energética y las aplicaciones de IA generativa más eficientes, resilientes y sostenibles. Prácticas más ecológicas en la fase de desarrollo también podrían contribuir a reducir la huella de carbono.
“Una codificación eficiente desde el punto de vista energético, un control optimizado del código y la supervisión y optimización continuas de los modelos de IA durante todo el ciclo de vida deberían ser prácticas habituales ―afirma Pranjali Ajay Parse, científica de datos de Autodesk―. También podemos pasar a entrenar modelos de IA en horarios más optimizados, en los que las tareas tienen lugar durante las horas de menor actividad para aprovechar unos costes energéticos más bajos”.
“Otro enfoque es el entrenamiento distribuido ―prosigue―, en el que las cargas de trabajo se reparten entre varias máquinas. De esta forma, también es posible mejorar la eficiencia y reducir los cuellos de botella”.
El propio aprendizaje automático puede ayudar a resolver el problema. Ya en 2016, según Parse, Google utilizó DeepMind para analizar y mejorar la eficiencia energética de sus centros de datos, lo que le permitió reducir en un 40 % el consumo de energía para refrigeración. “El proyecto Natick de Microsoft, en el que los centros de datos se instalan bajo el agua para ahorrar en refrigeración, es otro planteamiento prometedor”, comenta.
La IA generativa plantea a la sociedad grandes interrogantes éticos, jurídicos, económicos y filosóficos. Los expertos afirman que ha llegado el momento de incluir también la sostenibilidad. Los debates sobre las repercusiones de los LLM, tanto positivas como negativas, continuarán, pero no tendrán mucho sentido si no tenemos un planeta sano donde celebrarlos.