L’intelligenza artificiale consuma troppa acqua dolce. O almeno è questo che sostengono i ricercatori dell’Università del Colorado Riverside e quella del Texas ad Arlington in uno studio appena pubblicato dal titolo Making Ai Less Thirsty, ovvero “Rendere l’Ai meno assetata”. L’idea di fondo è sottolineare come il consumo energetico, aspetto sul quale in genere ci si concentra, sia solo una parte del problema. Per raffreddare i centri dati che consentono il funzionamento dei servizi digitali, e nello specifico per allenare i modelli linguistici generativi come quelli di OpenAi, si usa infatti acqua. Troppa, stando alle due università americane.

“L’impronta di carbonio crescente dei modelli di intelligenza artificiale (Ai), in particolare quelli di grandi dimensioni come Gpt-3 (che è alla base di ChatGpt, ndr.) e Gpt-4, è stata spesso sottoposta al vaglio”, si legge nella ricerca. “Sfortunatamente l’altrettanto importante ed enorme impronta idrica non ha ricevuto la medesima attenzione”. Vale ovviamente per la tecnologia in generale e per tutti gli altri settori produttivi dei quali in effetti in genere si conteggiano le emissioni di gas serra dirette o legate al consumo energetico e non l’assorbimento di acqua a meno che non si stia parlando di agricoltura.

A quanto pare una conversazione di media lunghezza con ChatGpt equivarrebbe a prelevare una bottiglia di acqua. L’addestramento Gpt-3 nei datacenter statunitensi di Microsoft invece avrebbe consumato, stando alle stime, circa 700 mila litri. Una quantità sufficiente per produrre 370 auto Bmw o 320 Tesla si legge nello studio. E il consumo sarebbe triplicato se la formazione fosse stata fatta nei datacenter asiatici sempre di Microsoft, che sono meno all’avanguardia e quindi anche meno ottimizzati. La testata Gizmodo si è spinta oltre segnalando che si tratta di una quantità pari a quella necessaria per riempire una torre di raffreddamento di un reattore nucleare.

Google Earth: com’è cambiata la Terra in quasi 40 anni

Al di là dei paragoni che lasciano il tempo che trovano, si mettono infatti a confronto fra loro campi diversi come la produzione di energia o quella delle vetture con un servizio digitale, l’aspetto considerato preoccupante dalla ricerca è la crescente scarsità di risorse idriche nel mondo. Una situazione aggravata dall’espansione costante dei centri di calcolo legati ai servizi cloud che però sono davvero ben poca cosa rispetto agli sprechi dovuti ad esempio alle falle nei sistemi di distribuzione. In Italia va perso il 42% dell’acqua trasportata ad esempio.

Peccato poi che nello studio manchi un confronto con altre tipologie di applicazioni digitali di uso comune, dai social network alla posta elettronica. Non è per altro esatto sostenere che il problema non sia mai stato preso in considerazione, visto che il raffreddamento ha un costo. La stessa Microsoft ha lanciato nel 2015 Project Natick, ponendo un piccolo datacenter nel mare a 35 metri di profondità proprio per evitare di doverlo raffreddare. C’è stata anche una seconda fase, dal 2018 al 2020.

È vero però che si tratta di una sperimentazione e che le altre migliorie apportate ai sistemi di raffreddamento tradizionali non sono sufficienti a mantenere il consumo costante vista la domanda in crescita esponenziale di potenza di calcolo. Raddoppia ogni due o tre mesi solo per quanto riguarda le Ai generative, stando a quanto ha rivelato Nvidia, fra le più importanti nel campo delle infrastrutture necessarie all’intelligenza artificiale. I server di proprietà di Google, nei soli Stati Uniti, hanno assorbito 12,7 miliardi di litri per il raffreddamento nel 2021 e circa il 90% era acqua potabile. Per l’addestramento di Gpt-3 bisogna poi aggiungere altri 2,8 milioni di litri dovuti al consumo di elettricità. Quindi, combinato insieme il raffreddamento dei datacenter e l’acqua usata nella produzione di energia per alimentarli, si arriva a 3,5 milioni di litri per gli Stati Uniti o a 4,9 milioni di litri in Asia.

Di sicuro, al di là di Gpt, senza una strategia per affrontare la sfida idrica globale, quasi la metà della popolazione affronterà condizioni difficili entro il 2030 e circa un bambino su quattro vivrà in aree soggette a stress idrico elevato da qui al 2040. La ricerca conclude affermando che “è essenziale il quando e il dove addestrare un modello di Ai di grandi dimensioni”. Scegliere quindi l’ora e la collocazione geografica di un certo datacenter per ridurre al minimo i consumi. Sorge però il problema legato all’energia solare sempre più usata dalle infrastrutture dei servizi cloud, anche perché costa meno, e che viene prodotta in abbondanza nelle giornate più calde e soleggiate, le stesse che comportano la necessità di un raffreddamento maggiore dei server. L’efficienza energetica e quella idrica entrano in questo caso in conflitto. Bisognerà trovare il giusto equilibrio considerando l’aumento delle temperature provocato dall’attività umana.