¿Qué impacto medioambiental tiene el desarrollo de la IA generativa?

La nueva era de la IA generativa abre todo un mundo de posibilidades, pero también nos obliga a preguntarnos por las consecuencias medioambientales.
La eclosión que ha experimentado la IA generativa en los últimos años ha sido espectacular. Casi cada día encontramos nuevas y sorprendentes aplicaciones para esta tecnología, que se extiende a todos los sectores de actividad, democratizando su uso.
Además, la IA generativa ha dado lugar a la visibilización de la IA, una tecnología que antes permanecía en la ‘trastienda’. Los usuarios se beneficiaban de las recomendaciones de los servicios de streaming y de los ecommerces o utilizaban los altavoces inteligentes, por ejemplo, pero no tenían la opción de usar la IA de primera mano.
Sin embargo, la IA generativa permite que el usuario tome el control y emplee esta tecnología para lo que quiera: escribir un email, buscar información sobre un tema determinado, generar una imagen, preparar una presentación…
Si el auge de la IA ya estaba provocando un importante incremento de las necesidades de computación y de transmisión de datos, con el impacto medioambiental que esto supone, como veíamos en este reportaje, la nueva era que se abre con la IA generativa dispara la preocupación respecto a la sostenibilidad de su avance.
“Estamos en un momento de explosión de la IA, en el que la IA generativa tiene un papel destacado, al ser la más usada por el usuario final. Los requerimientos de la IA demandan mayores recursos de hardware en los datacenters con una capacidad de cálculo aún mayor. Esto hace que se desarrollen constantemente unas GPU más potentes, que incrementan la potencia de diseño térmico de los procesadores, pero que también doblan su consumo energético, pudiéndose llegar a incrementar hasta un 30% las emisiones de carbono”, expone Matias Sosa, cloud specialist & product marketing manager de OVHcloud.
“Nos encontramos ante un reto colectivo, para el que se necesita un enfoque multidimensional a escala de la industria. Esto implica no sólo optimizar la infraestructura en la nube, sino también repensar el diseño de los modelos de IA, con un software rediseñado que requiera menos recursos de entrenamiento y de cómputo”, añade.
En este sentido, la irrupción de DeepSeek en la arena de la IA generativa puede suponer un punto de inflexión, ya que parece que es capaz de hacer lo mismo que los modelos más avanzados de ChatGPT, pero con mucho menos recursos.
Además, Sosa considera que “la optimización de rendimiento debe ir acompañada de una optimización energética”. “La adopción de una economía circular, centrada en la reutilización y el reacondicionamiento de equipos, también es un factor clave, que puede beneficiar a todo el sector. Los proveedores de hardware y software debemos esforzarnos por ser más eficientes en nuestro diseño, desarrollando soluciones que optimicen el consumo de los datos y desplegando centros de datos más eficientes energéticamente y basados en energías renovables. Esto permitirá que los clientes puedan asimismo reducir la huella de carbono de sus servicios de IT”, comenta.
Consumo energético y de agua
Uno de los aspectos que más preocupa del auge de la IA generativa es el elevado consumo energético que conlleva. “El consumo energético está creciendo exponencialmente. Según el informe que hemos publicado recientemente sobre la sostenibilidad de la IA generativa, se prevé que la demanda global de electricidad para los centros de datos se incremente más del doble, pasando de 460 TWh en 2022 a 1.000 TWh en 2026, impulsada principalmente por la IA generativa“, especifica Manuel Cid, vicepresidente y responsable de Insight & Data de Capgemini en España.
Por ejemplo, señala que “la formación de un modelo GPT-4 (1,76 billones de parámetros) consume entre 51.772 y 62.319 MWh, equivalente al consumo anual de 5.000 hogares estadounidenses”.
La IA generativa también genera un importante consumo de agua. De acuerdo con un reciente estudio realizado por investigadores de las universidades de California y Texas, entrenar el large language model (LLM) GPT-3 puede suponer un consumo de 700.000 litros de agua para refrigerar los servidores. Y se prevé que la demanda mundial de IA suponga la extracción de 4.200 a 6.600 millones de metros cúbicos de agua en 2027.
Asimismo, Cid apunta que “se estima que ejecutar entre 20 y 50 consultas en un LLM requiere aproximadamente 500 mililitros de agua cada vez”. Y esa es la misma cantidad de agua que se consume para resolver una petición tan sencilla como escribir un correo electrónico de 100 palabras en ChatGPT, según una investigación de la Universidad de California, tal y como informaba The Washington Post.
Igualmente, Federico Vadillo, senior solutions engineer de Akamai, señala que “un centro de datos de tamaño medio puede consumir hasta 300.000 galones de agua (1,1 millones de litros) al día para refrigeración”.
Además, el responsable de Capgemini apunta que “la fabricación de los microchips utilizados en IA consume alrededor de 8.328 litros de agua ultrapura por unidad”.
Más emisiones de CO2 y e-waste
Otra consecuencia perniciosa del avance de la IA generativa es el aumento de las emisiones de gases de efecto invernadero. “En términos de emisiones de CO2, la huella de carbono asociada a la formación de modelos grandes como GPT-4 es equivalente al consumo de electricidad de miles de hogares durante un año”, anota Cid.
Del mismo modo, Vadillo reseña que “el entrenamiento de un solo modelo de IA puede generar más de 626.000 libras (284.000 kilos) de CO2, equivalente a las emisiones de cinco coches durante toda su vida útil”, detalla Vadillo.
Además, el boom de la IA generativa provoca un incremento del denominado e-waste. En relación con los residuos electrónicos o e-waste, se estima que la IA generativa podría generar entre 1,2 y 5 millones de toneladas métricas de residuos electrónicos para 2030”, puntualiza el portavoz de Capgemini.
Igualmente, el representante de Akamai indica que “se prevé un aumento de 1.000 veces en los desechos electrónicos relacionados con la IA para 2030”.
¿Compensa el uso de la IA generativa?
Con todos estos datos en la mano, cabe preguntarse si realmente merece la pena utilizar la IA generativa. Resulta evidente que el uso de esta tecnología mejora el rendimiento y multiplica la productividad, pero conviene analizar si compensa el precio que pagamos por ello.
“Es indudable que la IA generativa ha traído muchas ventajas, entre las que destaca el impacto positivo en la automatización de tareas, lo que permite que muchos profesionales puedan enfocarse en actividades de mayor valor y así aumentar la productividad empresarial. Sin embargo, hay que tener en cuenta que el entrenamiento y despliegue constante de las plataformas de IA generativa consume mucha energía indirecta, al demandar recursos constantemente”, admite Sosa.
“Actualmente, quizá nos encontramos en un punto de desequilibrio, pues los efectos en el impacto energético son altos. Pero también estamos viendo que hay una búsqueda de eficiencia energética que asegure la sostenibilidad de estos casos de uso y modelos de negocio. La optimización de modelos podría ayudar mucho en este punto, con modelos especializados por sectores de actividad. Por ejemplo, en sectores como la logística o la industria, podrían aparecer modelos de IA para la automatización de tareas específicas. Al estar más ajustados a los usos concretos, demandarían menos recursos de procesamiento y, por ende, menos recursos energéticos, con un aumento considerable de la productividad”. aclara.
Por su parte, David Blázquez, responsable de Relaciones Institucionales de Infraestructura y Energía de AWS en España y Portugal, considera que “el balance es positivo”. “La IA generativa es una de las tecnologías más transformadoras de nuestro tiempo, ya que permite abordar algunos de los problemas más complejos de la humanidad, aumenta el rendimiento y maximiza la productividad. La IA generativa reinventará todas las experiencias y aplicaciones de los clientes y ya impulsa la eficiencia de las personas y las organizaciones”, declara.
Y aporta algunos datos que refuerzan su postura. “Según un estudio de Access Partnership en colaboración con AWS, la productividad de los empleados podría incrementarse en un 45% por la adopción de la IA o la IA generativa. Además, las empresas que utilizan la nube de AWS pueden reducir su huella de carbono hasta en un 99% al optimizar sus cargas de trabajo. Estos son sólo unos ejemplos del impacto positivo en la productividad y la reducción de la huella de carbono que la IA y la IA generativa pueden tener en las organizaciones”.
Por otro lado, remarca que “la inversión en nuevos centros de datos que apoyan el crecimiento de la IA, como la región ya operativa de AWS en Aragón, que supondrá una inversión de 15.700 millones de euros en España, genera nuevas oportunidades y puestos de empleo cualificados para las comunidades locales”.
“De hecho, en un país como España, que el año pasado generó más energía de la que consumió, la proliferación de centros de datos y el auge de la IA es una gran oportunidad para acelerar la transformación digital y convertirse en un referente internacional de innovación”, subraya.
Asimismo, desde Equinix se indica que “una vez diseñadas y desplegadas con responsabilidad, las soluciones de IA tienen el potencial de incrementar la productividad y la eficiencia operativa, al tiempo que pueden reducir los costes energéticos y medioambientales a largo plazo”.
Igualmente, Cid afirma que “la IA generativa tiene un gran potencial para mejorar la eficiencia y abordar de manera mucho más productiva múltiples desafíos en industrias y sectores diversos”.
“Estas ventajas representan oportunidades significativas para las organizaciones que buscan acelerar su transición hacia modelos más sostenibles. Aunque el impacto ambiental actual de la IA generativa es notable, hay herramientas y estrategias disponibles, como el uso de modelos más pequeños, la optimización mediante técnicas de cuantización y compresión, y el aprovechamiento de infraestructuras sostenibles, que permiten mitigar estos efectos. Con una implementación adecuada, la IA generativa puede ofrecer un balance positivo en términos de productividad”, puntualiza.
En cualquier caso, el responsable de Akamai reconoce que no es fácil precisar hacia que lado se decanta la balanza al sopesar sus impactos positivos y negativos. “Se necesita más investigación para cuantificar con precisión los beneficios y costos”, comenta. Pero considera que “tiene el potencial de contribuir significativamente a iniciativas de sostenibilidad si se utiliza de manera responsable”.
Hacia un uso más responsable
Precisamente esa es la clave: el uso responsable de la tecnología. Sin embargo, debemos plantearnos si las empresas son conscientes de la huella medioambiental que conlleva el uso de la IA generativa.
“Desafortunadamente, la mayoría de las empresas no son plenamente conscientes o han decidido pasarlo por alto durante bastante tiempo. Sólo el 12% mide el impacto ambiental de la IA generativa. Y menos del 20% lo considera un factor clave al seleccionar modelos. Ahora es cuando comenzamos a ver cómo las organizaciones están incorporando medidas de sostenibilidad en el ciclo de vida de la IA, con un 31% de los ejecutivos asegurando que sus organizaciones ya han tomado medidas en esta dirección”, apunta el responsable de Capgemini.
De hecho, los criterios medioambientales aún tienen poco peso en la decisión de las empresas a la hora de elegir proveedor o construir modelos de IA generativa. El experto de Akamai señala que “actualmente sólo una de cada cinco empresas considera la huella ambiental como un factor principal al seleccionar modelos de IA”, según un estudio de PwC. Sin embargo, se proyecta que el 70% de las empresas que adopten IA generativa en 2027 clasificarán la sostenibilidad como uno de sus principales criterios de selección, de acuerdo con un informe de Gartner.
Igualmente, Cid apunta que “actualmente, sólo el 15% de las empresas considera la sostenibilidad como un criterio clave al seleccionar proveedores de IA generativa, lo pone de manifiesto un enfoque limitado hacia este aspecto en la toma de decisiones”.
Sin embargo, afirma que “el mindset está cambiando rápidamente, ya que el 55% de los ejecutivos afirma que incluir la sostenibilidad como un factor clave en la selección de proveedores podría reducir significativamente la huella ambiental de esta tecnología”.
“Este cambio es particularmente relevante en un contexto donde tanto los clientes como las normativas están ejerciendo una presión creciente sobre las empresas para que adopten prácticas más responsables”, comenta.
De igual modo, el representante de OVHcloud insiste en que no sólo nos enfrentamos a un reto medioambiental, sino también regulatorio, al tener que cumplir con los objetivos de sostenibilidad de la Agenda 2030. “Muchas organizaciones comienzan a pedir esta información de cara a cumplir con regulaciones, e incluso es un factor cada vez más decisivo para acceder a fondos de inversión. Esto contribuirá a que se convierta en un factor muy relevante a medio plazo”, augura.
En cualquier caso, el portavoz de Capgemini recuerda que ya existen opciones que pueden orientar a las organizaciones en esta dirección. “Hay herramientas como los centros de datos verdes, el uso de hardware eficiente y la selección de ubicaciones con menor impacto ambiental para servidores —por ejemplo, en regiones con una mayor proporción de energías renovables—, que pueden marcar una diferencia significativa en la huella ambiental de las operaciones de IA generativa. Este enfoque no sólo permite a las empresas alinearse con objetivos regulatorios y expectativas del consumidor, sino que también ofrece oportunidades para optimizar costes operativos a través de prácticas sostenibles”.
Los proveedores toman la iniciativa
Para que las empresas empiecen a tener en cuenta la sostenibilidad cuando adoptan decisiones en torno a la IA generativa, primero es preciso que tomen conciencia de la situación en la que nos encontramos.
“Es necesaria más educación sobre el uso responsable de esta tecnología para mitigar sus impactos negativos”, declara Vadillo. Igualmente, Equinix opina que “la formación y el asesoramiento especializado resultan clave para que las compañías comprendan los beneficios de la IA y, al mismo tiempo, desplieguen su infraestructura en espacios sostenibles”.
Esto exige implicación por parte de los proveedores. Blázquez detalla algunas de las herramientas que ofrece AWS, como AWS Well-Architected Framework, que ayuda a sus clientes a comprender el impacto de las decisiones que toman al crear cargas de trabajo en AWS.
También cuenta con la Customer Carbon Footprint Tool, una herramienta que permite que sus clientes midan y prevean las emisiones de carbono estimadas del uso de los servicios de AWS. “Gracias a ella pueden mejorar su comprensión de los factores que impulsan su huella de carbono, desde los servicios que utilizan hasta las regiones de AWS donde alojan sus datos, y predecir cómo evolucionarán sus emisiones en su transición a la sostenibilidad a medida que Amazon avanza en la implementación de sus programas de energía renovables”, expone.
Vadillo indica que Akamai también ha desarrollado una calculadora de carbono para que sus clientes puedan medir las emisiones asociadas al uso de Akamai Connected Cloud. Y también OVHcloud. “Proporciona a los clientes información transparente y exhaustiva sobre los alcances 1, 2, 3 de su huella de carbono, desde la fabricación hasta el funcionamiento de la infraestructura”, comenta Sosa.
El responsable de OVHcloud recalca que el desarrollo de herramientas de medición del carbono “ofrece a los usuarios una visión completa y precisa de su impacto ambiental, como parte de un enfoque proactivo de sensibilización y transición a favor de la reducción de su huella”.
“El futuro de la IA se basa en una estrecha colaboración entre los proveedores de la nube, los desarrolladores de IA, los usuarios finales y las autoridades para crear soluciones innovadoras y sostenibles. Esta transparencia y esta capacidad de innovación colectiva son esenciales en la transición hacia una IA sostenible, alineada con la eficiencia energética y la innovación tecnológica responsable”, apostilla.
Pero no basta sólo con la concienciación de las organizaciones, sino que los proveedores también han de tomar la iniciativa para reducir el impacto medioambiental que comporta el uso de estas tecnologías. Y lo están haciendo.
“Nuestras medidas incluyen la inversión en chips energéticamente eficientes, como AWS Trainium y Graviton; la innovación en tecnologías de refrigeración, como la refrigeración líquida configurable directa a chip; la optimización del diseño de nuestros centros de datos para maximizar el uso de energía y minimizar las pérdidas; el uso de energía 100% renovable en nuestros centros de datos, como los que hay en Aragón; proyectos de energía renovable, como los que tenemos proyectados en España; y el compromiso de devolver más agua a la comunidad de la que usamos”, desgrana Blázquez.
“Nuestras innovaciones en eficiencia energética, como las nuevas tecnologías de refrigeración y el uso de chips diseñados específicamente, como AWS Trainium e Inferentia, nos permiten ofrecer un 12% más de potencia de cómputo por sitio con un menor impacto ambiental. Y nuestra infraestructura es hasta 4,1 veces más eficiente energéticamente que las instalaciones locales. Además, mejoras en el diseño de nuestros centros de datos, como la simplificación de la distribución eléctrica y los sistemas mecánicos, nos ayudan a reducir el consumo total de energía y minimizar el riesgo de fallos”, agrega.
Respecto al consumo de agua, destaca el desarrollo de soluciones de refrigeración mecánica que proporcionan refrigeración configurable directa a chip, tanto en sus centros de datos nuevos como en los existentes, minimizando el uso de agua por megavatio. Asimismo, se ha fijado como objetivo devolver más agua a la comunidad de la que usan sus centros de datos antes de 2030.
En cuanto a las emisiones de CO2, precisa que sus centros de datos en Aragón funcionan al 100% con energía renovable desde el comienzo de sus operaciones nuestros. Además, reseña que AWS y Amazon están invirtiendo en España en 79 proyectos de energía solar y eólica que añadirán más de 2,9 GW de energía limpia a la red.
Vadillo también desgrana las medidas desplegadas por Akamai, como su objetivo de lograr emisiones netas cero y una plataforma de carbono cero para 2030, sus esfuerzos para aumentar la eficiencia energética de su red en un 30% anual o el procesamiento del 100% de sus desechos electrónicos a través de proveedores certificados por e-Stewards, además del desarrollo de su calculadora de carbono.
Igualmente, Equinix se ha propuesto el objetivo de lograr la neutralidad climática en 2030, “mediante compromisos basados en la ciencia”, precisa. “Conscientes de que la refrigeración representa uno de los principales desafíos energéticos, hemos implementado tecnologías de alta eficiencia, como soluciones de liquid cooling avanzadas, para manejar cargas de trabajo de gran densidad de manera más sostenible”, subraya.
“Paralelamente, impulsamos la economía circular a lo largo de todo el ciclo de vida de nuestros data centers, colaborando con las comunidades locales para minimizar el consumo de recursos y el desperdicio. Además, fuimos el primer operador del sector en sumarnos al Pacto Europeo por la Neutralidad Climática en data centers, operando nuestras instalaciones a temperaturas cercanas a los 27 °C”, reseña.
Además, incide en que Equinix está abastecida con energía 100% renovable en Europa, cerrando acuerdos de compra para fomentar la generación de energías limpias.
Asimismo, Sosa pone el acento en que OVHcloud desarrolló hace más de 20 años un sistema de refrigeración líquida para disipar el calor que emiten los componentes que consumen más energía de los servidores, los procesadores CPU y GPU. “Esto nos permite reducir los costes energéticos de nuestros 43 datacenters, con algunos de los mejores índices de uso de la industria: contamos con PUE (Power Usage Effectiveness) de 1,26 y un WUE (Water Usage Effecti-veness) de 0,37 L/kWh”, especifica.
Además, recalca que la compañía cuenta con un modelo industrial que le permite aplicar la economía circular. “Desmontamos el 100% de los servidores tras su uso, proporcionando componentes para su reutilización y alargando su vida útil hasta al menos 5 años. Estos principios de economía circular se aplican también en toda nuestra cadena de suministro, incluyendo la rehabilitación de edificios antiguos para alojar nuestros datacenters. En la medida de lo posible, intentamos reutilizar instalaciones ya existentes. De hecho, 28 de nuestros datacenters se encuentran en edificios ‘reciclados’, eliminando así innecesarias emisiones de carbono asociadas a la construcción”, relata.
¿Qué papel juegan los AIPC?
El desarrollo de los ordenadores optimizados para IA, los denominados AIPC, también pueden contribuir a reducir la necesidad de capacidad de procesamiento de los centros de datos.
“Tienen el potencial de absorber parte de la carga de procesamiento necesaria para las tareas de IA, lo que podría ayudar a distribuir la demanda energética. Sin embargo, es importante considerar que estos dispositivos también consumen energía y recursos. Su impacto neto en la sostenibilidad dependerá de cómo se implementen y utilicen”, anota el responsable de Akamai.
Equinix anota que “los AIPC o formatos análogos cobran relevancia para procesos de inferencia y entrenamiento, ofreciendo latencias más bajas y una mayor eficiencia que complementa a los data centers”.
En cualquier caso, OVHcloud considera que los AIPC todavía representan “un segmento con un impacto mínimo, con usos muy específicos para trabajar con datos en local, o dedicados a hacer entrenamientos de modelos iniciales o tareas de preprocesamiento de IA”.
“La ventaja principal es que evitan los costes y el impacto energético derivado de la transferencia de datos, pero a la hora de escalar y demandar más capacidad de procesamiento, los costes y el consumo de energía puede aumentar significativamente, quedando en clara desventaja frente al cloud”, asegura.
Por su parte, Cid recuerda que “tecnologías como los chips Nvidia Blackwell y AWS Trainium han reducido significativamente el consumo energético, permitiendo que los datos sean procesados de manera más eficiente y con un coste operativo mucho menor”.
Además, comenta que “la adopción de estas tecnologías también se ve complementada por técnicas de paralelismo de modelos”. “Plataformas como AWS SageMaker permiten ejecutar entrenamiento distribuido y procesar modelos de manera más eficiente a través de múltiples unidades de procesamiento gráfico (GPU). Esto optimiza la utilización de los recursos disponibles, reduce el tiempo de entrenamiento y minimiza la energía utilizada para completar el proceso”, detalla.
Igualmente, Equinix destaca que está colaborando con partners como Dell Technologies y Nvidia para proporcionar soluciones privadas de IA que posibilitan tanto el entrenamiento como la ejecución de modelos de forma altamente escalable y con un consumo mínimo, al tiempo que se mantiene el control de los datos y se apoyan los objetivos de sostenibilidad de las empresas.
“Para ello, desarrollamos datacenters listos para la IA, dotados de alta densidad energética y sistemas de refrigeración eficientes. Al situar la computación especializada cerca de las fuentes de datos, las organizaciones aprovechan las ventajas de la IA privada, como la menor latencia, la mayor seguridad y el alto rendimiento que demandan los casos de uso más exigentes”, precisa.