Vicedecana de Impacto Social e Innovación Académica de la UPF-BSM

¿Es sostenible utilizar ChatGPT?

13 de Julio de 2025
Ana Freire | VIA Empresa

La inteligencia artificial no es algo nuevo. El término se acuñó por primera vez en 1956, y ya en 1950 Alan Turing propuso un método para determinar si una máquina podía considerarse inteligente: el conocido "Test de Turing". Sin embargo, no ha sido hasta las dos últimas décadas que ha experimentado un auge sin precedentes. ¿Por qué ahora, casi un siglo después? Porque han confluido dos factores clave: una enorme disponibilidad de datos y un poder computacional muy superior al de épocas anteriores. 

 

La verdadera potencia de los algoritmos de IA radica en analizar grandes volúmenes de datos para extraer patrones útiles. A mediados del siglo pasado, los modelos ya existían en teoría, pero el mundo aún no estaba digitalizado, ni había suficiente capacidad computacional para entrenarlos de manera eficaz. 

Otro factor decisivo ha sido la evolución de las redes de comunicaciones, cada vez más rápidas, baratas y accesibles. Hoy no sólo podemos descargar datos a gran velocidad, sino que generamos constantemente: somos los principales productores de datos a través de redes sociales, dispositivos conectados, sensores y plataformas digitales. Esta tendencia se intensificará con el despliegue de redes móviles de nueva generación, como el 6G, que promete velocidades aún más altas, una latencia ultrabaja y una capacidad masiva de conexión entre dispositivos. Estas redes no sólo impulsarán la adopción de tecnologías basadas en IA, sino que también permitirán nuevos casos de uso en tiempo real, desde ciudades inteligentes hasta vehículos autónomos, lo que generará aún más datos y demanda de procesamiento. 

 

Este volumen de datos y su procesamiento requiere una gran infraestructura tecnológica. Lo que llamamos “la nube” se materializa en centros de datos: enormes instalaciones llenas de servidores que almacenan y procesan información. Estos centros son los que hacen posibles herramientas como ChatGPT, Copilot o Gemini. 

Entrenar y ejecutar modelos como estos requiere mucha energía: alimentar los servidores, refrigerarlos y mantenerlos operativos las 24 horas del día, cada día del año. Según la Agencia Internacional de la Energía (IEA), los centros de datos consumieron aproximadamente 460 TWh de electricidad en 2022, y podrían duplicar esta cifra de cara a 2026. Sin embargo, un estudio reciente de Epoch AI ha revisado este dato y estima que, gracias a modelos más eficientes como GPT-4o y a mejoras en el hardware, una consulta típica consume sólo 0,3 Wh, diez veces menos de lo que se creía. Para ponerlo en contexto, esto equivale a menos electricidad que la que consume una bombilla LED o un ordenador portátil en pocos minutos, lo que significa que incluso para un usuario intensivo, el impacto energético de ChatGPT sigue siendo una fracción muy pequeña del consumo total de un hogar medio en los países desarrollados. 

Entrenar y ejecutar modelos como estos requiere alimentar los servidores, refrigerarlos y mantenerlos operativos las 24 horas del día

El consumo de agua también genera debate. Se sabe que el entrenamiento de GPT-3 implicó el uso de unos 700.000 litros de agua dulce, principalmente para sistemas de refrigeración por evaporación. Algunas estimaciones recientes indican que la IA podría requerir entre 4,2 y 6,6 km³ de agua al año para 2027. Esto representa sólo entre el 0,09% y el 0,165% del consumo mundial de agua dulce, estimado entre 4.000 y 4.600 km³ anuales. Aunque la cifra impresiona, en términos relativos sigue siendo una fracción muy reducida del consumo total global. 

Ante esto, surgen comparaciones con otras actividades intensivas en recursos. Una de las más impactantes es la industria cárnica. Producir un solo kilogramo de carne de vacuno requiere aproximadamente 15.415 litros de agua, y la agricultura y la ganadería en conjunto representan aproximadamente el 70% del consumo mundial de agua dulce. 

Comparativamente, el impacto hídrico y energético de la IA sigue siendo muy inferior al de algunas industrias. Además, en el ámbito tecnológico, ya se están encontrando soluciones para reducir el consumo derivado del uso de la IA. Empresas como DeepSeek han demostrado que es posible entrenar modelos avanzados con un 50–75% menos de consumo energético que otros modelos similares. Y los grandes centros de datos están adoptando tecnologías más sostenibles: refrigeración líquida por inmersión, circuitos cerrados de agua y sistemas alimentados por energías renovables. Google, por ejemplo, consiguió reducir un 30% el consumo energético para refrigeración en sus centros gracias al uso de IA. 

"DeepSeek ha demostrado que es posible entrenar modelos avanzados con un 50–75% menos de consumo energético"

La IA sigue creciendo y generando preocupación por su impacto ambiental, pero si la comparamos con otros sectores de actividad, como la ganadería intensiva, invita a poner las cosas en perspectiva.