Vicedegana d’Impacte Social i Innovació Acadèmica de la UPF-BSM

És sostenible utilitzar ChatGPT?

13 de Juliol de 2025
Ana Freire | VIA Empresa

La intel·ligència artificial no és una cosa nova. El terme es va encunyar per primera vegada l’any 1956, i ja el 1950 Alan Turing va proposar un mètode per determinar si una màquina podia considerar-se intel·ligent: el conegut "Test de Turing". No obstant això, no ha estat fins a les dues darreres dècades que ha experimentat un auge sense precedents. Per què ara, gairebé un segle després? Perquè han confluït dos factors clau: una enorme disponibilitat de dades i un poder computacional molt superior al d’èpoques anteriors. 

 

La veritable potència dels algorismes d’IA rau en analitzar grans volums de dades per extreure'n patrons útils. A mitjan segle passat, els models ja existien en teoria, però el món encara no estava digitalitzat, ni hi havia prou capacitat computacional per entrenar-los de manera eficaç. 

Un altre factor decisiu ha estat l’evolució de les xarxes de comunicacions, cada cop més ràpides, barates i accessibles. Avui no només podem descarregar dades a gran velocitat, sinó que en generem constantment: som els principals productors de dades a través de xarxes socials, dispositius connectats, sensors i plataformes digitals. Aquesta tendència s’intensificarà amb el desplegament de xarxes mòbils de nova generació, com el 6G, que promet velocitats encara més altes, una latència ultrabaixa i una capacitat massiva de connexió entre dispositius. Aquestes xarxes no només impulsaran l’adopció de tecnologies basades en IA, sinó que també permetran nous casos d’ús en temps real, des de ciutats intel·ligents fins a vehicles autònoms, cosa que generarà encara més dades i demanda de processament. 

 

Aquest volum de dades i el seu processament requereix una gran infraestructura tecnològica. El que anomenem “el núvol” es materialitza en centres de dades: enormes instal·lacions plenes de servidors que emmagatzemen i processen informació. Aquests centres són els que fan possibles eines com ChatGPT, Copilot o Gemini. 

Entrenar i executar models com aquests requereix molta energia: alimentar els servidors, refrigerar-los i mantenir-los operatius les 24 hores del dia, cada dia de l’any. Segons l’Agència Internacional de l’Energia (IEA), els centres de dades van consumir aproximadament 460 TWh d’electricitat l’any 2022, i podrien duplicar aquesta xifra de cara al 2026. Tanmateix, un estudi recent d’Epoch AI ha revisat aquesta dada i estima que, gràcies a models més eficients com GPT-4o i a millores en el maquinari, una consulta típica consumeix només 0,3 Wh, deu vegades menys del que es creia. Per posar-ho en context, això equival a menys electricitat que la que consumeix una bombeta LED o un ordinador portàtil en pocs minuts, cosa que significa que fins i tot per a un usuari intensiu, l’impacte energètic de ChatGPT continua sent una fracció molt petita del consum total d’una llar mitjana als països desenvolupats. 

Entrenar i executar models com aquests requereix alimentar els servidors, refrigerar-los i mantenir-los operatius les 24 hores del dia

El consum d’aigua també genera debat. Se sap que l’entrenament de GPT-3 va implicar l’ús d’uns 700.000 litres d’aigua dolça, principalment per a sistemes de refrigeració per evaporació. Algunes estimacions recents indiquen que la IA podria requerir entre 4,2 i 6,6 km³ d’aigua a l’any per a 2027. Això representa només entre el 0,09% i el 0,165% del consum mundial d’aigua dolça, estimat entre 4.000 i 4.600 km³ anuals. Tot i que la xifra impressiona, en termes relatius continua essent una fracció molt reduïda del consum total global. 

Davant això, sorgeixen comparacions amb altres activitats intensives en recursos. Una de les més impactants és la indústria càrnia. Produir un sol quilogram de carn de vedella requereix aproximadament 15.415 litres d’aigua, i l’agricultura i la ramaderia en conjunt representen aproximadament el 70% del consum mundial d’aigua dolça. 

Comparativament, l’impacte hídric i energètic de la IA continua sent molt inferior al d’algunes indústries. A més, en l’àmbit tecnològic, ja s’estan trobant solucions per reduir el consum derivat de l’ús de la IA. Empreses com DeepSeek han demostrat que és possible entrenar models avançats amb un 50–75% menys de consum energètic que altres models similars. I els grans centres de dades estan adoptant tecnologies més sostenibles: refrigeració líquida per immersió, circuits tancats d’aigua i sistemes alimentats per energies renovables. Google, per exemple, va aconseguir reduir un 30% el consum energètic per a refrigeració als seus centres gràcies a l’ús d’IA. 

"DeepSeek ha demostrat que és possible entrenar models avançats amb un 50–75% menys de consum energètic"

La IA continua creixent i generant preocupació pel seu impacte ambiental, però si la comparem amb altres sectors d’activitat, com la ramaderia intensiva, convida a posar les coses en perspectiva.