La Inteligencia Artificial no ha hecho sino dar sus primeros pasos en nuestra sociedad y ya se ha convertido en un ingente consumidor de energía y agua, necesarios para alimentar sus gigantescos centros de datos y servidores. Estas máquinas son auténticas ‘esponjas’ que se beben nuestros recursos naturales y están planteando ya serios problemas en algunos lugares, máxime ante la creciente sequía que causa el calentamiento global.
Aunque hace tiempo que circulan datos específicos para dar una idea de hasta dónde llega el volumen de ese consumo de energía, ha sido un informe del Departamento de Energía de EEUU, adelantado ayer por ‘El País’, el que ha sorprendido a todos por sus cifras, realmente sobrecogedoras e inesperadas. Según el gobierno norteamericano, el consumo de energía por estos servidores se ha triplicado en dicho país en los últimos diez años y lo peor es que en 2028 se llegará a los 325 teravatios hora de consumo. Eso significa que superará ampliamente el consumo de todo un país como España, que es de 246 Twh.
Hay que tener en cuenta que estas previsiones no se quedarán en una simple especulación, puesto que el presidente de EEUU, Donald Trump, acaba de anunciar su intención de invertir 500.000 millones de dólares para incrementar la IA, con el consiguiente aumento de consumo energético que llevará aparejada tal apuesta.
Dado que estas previsiones desbordan todos los pronósticos existentes hasta ahora, será preciso construir nuevas instalaciones energéticas para abastecer toda la maquinaria que requerirá esta expansión de la IA en EEUU.
Como Trump ya ha dejado claro que no piensa contar con las energías renovables durante su mandato, los analistas dan por seguro que este suministro añadido deberá proceder de las centrales nucleares, que presentan la ventaja de que no están sujetas a variaciones ambientales ni a interrupciones debidas a factores naturales.
Consumo brutal de agua
Ahora bien, la Inteligencia Artificial y los centros de datos asociados no solo consumen energía, sino también agua, que se obtiene directamente de ríos y lagos, justamente en un momento en que está escaseando su disponibilidad para la población, debido a las crecientes sequías derivadas del calentamiento global.
Por cada e-mail de 100 palabras de longitud escrito por ChatGPT se consume una botella de agua
En concreto, hace pocos meses se conocían las monstruosas cantidades de agua que consume ChatGPT, una de las aplicaciones más populares que usan IA. Y es que por cada e-mail de 100 palabras de longitud escrito por ChatGPT se consume una botella de agua.
Este es el impacto hídrico que provocan los chatbots de Inteligencia Artificial para que funcionen correctamente. Es la conclusión de un estudio que ha realizado el ‘Washington Post’ junto con científicos de la Universidad de California en Riverside. La investigación analiza la cantidad de recursos naturales que esta aplicación de OpenAI precisa para realizar sus funciones más elementales.
Los servidores informáticos generan calor para realizar sus cálculos y precisan ser refrigerados constantemente
“Cada petición que se hace a ChatGPT pasa por un servidor que realiza miles de cálculos para determinar las mejores palabras para utilizar en la respuesta”, señala el citado diario estadounidense. Hay que tener en cuenta que los servidores informáticos generan calor para realizar dichos cálculos, y precisan ser refrigerados.
El calor que generan los servidores es evacuado al exterior del edificio utilizando agua a través de torres de refrigeración. Pero en lugares donde el agua escasea, se emplea electricidad para enfriar estos equipos, mediante aparatos parecidos al aire acondicionado. Por tanto, el gasto de agua o electricidad necesarias para procesar las respuestas de GhatGPT dependerán de dónde esté situado cado centro de datos.
Hasta un litro y medio de agua por 100 palabras
Si, por ejemplo, ese centro de datos de IA está en Texas (EEUU), entonces consumirá 235 mililitros de agua para procesar un texto de 100 palabras. Sin embargo, si hacemos esa misma petición en Washington, entonces ese mismo texto necesitará hasta 1.408 mililitros (casi un litro y medio) de agua.
Los centros de datos de Google en The Dalles, al este de Portland, consumen casi una cuarta parte de toda el agua disponible para la ciudad, según otras informaciones periodísticas. Por poner un ejemplo, la empresa necesitó 22 millones de litros de agua para entrenar su último modelo de Inteligencia Artificial, Llama 3.1.
En su último informe medioambiental, Microsoft reveló que su consumo mundial de agua aumentó un 34% entre 2021 y 2022 (hasta casi 600 millones de litros, es decir, más de 2500 piscinas olímpicas), lo que supone un marcado aumento en comparación con años anteriores, que investigadores externos vinculan a su investigación en IA.
Microsoft reveló el año pasado que su consumo mundial de agua aumentó un 34% entre 2021 y 2022
«La mayoría de las personas no son conscientes del uso de recursos subyacente a ChatGPT», dijo Shaoeli Ren, investigador de la Universidad de California Riverside a Associated Press. «Si no eres consciente del uso de recursos, entonces no hay forma de que podamos ayudar a conservar esos recursos».
OpenAI, en vista de los resultados de esta investigación, emitió un comunicado en el que afirma que está “pensando mucho” en cómo mejorar el uso de su potencia informática. “Reconocemos que entrenar modelos grandes puede requerir mucha energía y agua y trabajamos para mejorar la eficiencia”, afirma la nota de la empresa. Mientras todo ello ocurre, no existe ninguna regulación administrativa que ponga límites a este tipo de situaciones, que amenazan con hacerse aún más grandes según va desarrollándose la Inteligencia Artificial.