Más energía, más agua: este es el coste medioambiental de la IA
La era de la inteligencia artificial (IA) generativa está cambiando el mundo, tanto en sentido figurado como literal. El consumo energético y de agua de las grandes tecnológicas, principales desarrolladoras de esta tecnología, así como sus emisiones de carbono, se han disparado en los últimos años. Y las proyecciones muestran que la tendencia no variará. Aunque ninguna compañía dice oficialmente que ese incremento obedezca a la irrupción de la IA, los números muestran un salto importante en 2022, el año en que OpenAI lanzó ChatGPT e inauguró la carrera de la IA generativa.
Siete de las 10 mayores empresas del mundo por capitalización bursátil son tecnológicas, lo que da una idea de la importancia del sector. Las grandes industrias tienen grandes necesidades de recursos. Con todo, los datos muestran un salto importante. Shaolei Ren, profesor asociado de ingeniería eléctrica y computacional de la Universidad de California, Riverside y especialista en sostenibilidad de la IA, cree que no es aventurado inferir que la IA es responsable de esta escalada en la contaminación y el consumo de recursos. El aumento en los dos últimos años, sostiene, ha sido muy abultado y coincide en el tiempo con una inversión fuerte en IA generativa y otros servicios relacionados con la IA.
Las últimas cifras disponibles de Google y Microsoft, los principales desarrolladores de esta tecnología, reflejan crecimientos abultados por segundo año consecutivo en las tres magnitudes clave. Google, responsable del modelo Gemini, acaba de reportar en su memoria medioambiental un incremento del 16,2% en el consumo energético en 2023 respecto al curso anterior. Por su parte, Microsoft, dueño de Copilot y que ha prestado sus infraestructuras a OpenAI para desarrollar todas las versiones de ChatGPT y el generador de imágenes Dall-E, ha registrado un crecimiento del 28,7%, según refleja su informe anual de sostenibilidad. La empresa fundada por Bill Gates ha duplicado sus necesidades energéticas entre 2020 y 2023, pasando de 11,2 millones de megavatios-hora (MWh) a 24 millones de MWh. En Google ha pasado casi lo mismo, con un incremento del 67% en este periodo.
Los procesadores GPU, los usados en el entrenamiento de modelos de IA, son mucho más potentes que las CPU, hasta ahora predominantes en los centros de datos, y, por consiguiente, consumen más energía (hasta 10 veces más). El entrenamiento de los grandes modelos de lenguaje requiere de decenas de miles de GPU operando día y noche durante semanas o meses. Los modelos más avanzados se reentrenan periódicamente para incorporar datos actualizados y cada vez que un usuario escribe un prompt (una orden) en su móvil u ordenador, la respuesta se computa en un centro de datos. Toda esta actividad ha estirado la demanda energética, hasta el punto de que algunas compañías, conscientes de que la tendencia se mantendrá al alza durante tiempo, están estudiando desarrollar pequeñas centrales nucleares para asegurarse un suministro suficiente y estable.
Los centros de datos en los que se opera la IA (y toda la actividad digital) son grandes naves industriales pobladas de hileras e hileras de racks, varios procesadores dispuestos en forma de armario o nevera. Todos esos procesadores y servidores, que alojan nuestros datos y ejecutan programas en línea, funcionan día y noche. Esa actividad emite mucho calor; si no se controla la temperatura, los equipos pueden estropearse. En la refrigeración de los centros de datos se usa agua, que se pulveriza para refrescar el ambiente. El consumo de este recurso también ha contabilizado en 2023 alzas del 13,8% y el 21%, respectivamente, unas cifras similares a las del año anterior. Microsoft, por ejemplo, ha reportado haber usado casi 13.000 millones de litros de agua. Más de la mitad de ese volumen (unos 8.000 millones de litros) se evaporó o consumió, por lo que no se pudo reutilizar. Google, por su parte, necesitó menos agua, unos 8.600 millones de litros, pero solo devolvió al sistema el 26,6% de esa cantidad.
Estas cifras, no obstante, no dan una fotografía completa del consumo real de los desarrolladores de IA. Las compañías solo aportan datos del agua que usan en la refrigeración de los centros de datos, pero no incluyen en sus memorias ni la que se emplea en generar la electricidad que consumen ni la usada en la cadena de suministro de los productos (principalmente en la elaboración de chips y otro hardware), como sí sucede por ejemplo con las emisiones de carbono.
Desde Google a Microsoft, pasando por Meta o Amazon (que todavía no han publicado sus memorias medioambientales de este año) y Apple, todas las grandes tecnológicas están inmersas en programas para mejorar sus registros de emisiones de carbono y reducir la cantidad de agua usada. El objetivo de muchas de ellas es llegar a 2030 con una huella ambiental muy baja.
Ren y sus colegas exponen en un artículo que acaba de ser aceptado en la revista Communication of the ACM, de referencia en el sector informático, algunas proyecciones basándose en consumos actuales y en las tendencias del sector. La demanda global de la IA será responsable del uso de entre 4,2 y 6,6 billones de litros para 2027, el equivalente a la mitad de agua usada cada año en Reino Unido. Ese mismo año, la demanda energética de la IA será de entre 85 y 134 TWh. En términos comparativos, la producción mundial de baterías se situó en 2023 en torno al teravatio por hora (1 TWh).
“Si solo nos fijamos en las emisiones derivadas de su consumo energético y de agua directos, pueden lograr no tener emisiones ni gastar más agua de la que aportan para 2030, puede que incluso antes. Pero si atendemos a su huella real, es bastante improbable que consigan la neutralidad para 2030″, concluye Ren.
[Este contenido ha sido reelaborado a partir de El País. Lee el original aquí]