L’intelligenza artificiale “idrovora” di energia, con conseguente impatto in termini di emissioni di CO2, e l’addestramento di modelli di deep learning di grandi dimensioni (come GPT e BERT) hanno un impatto ambientale significativo. Basti pensare che un modello come GPT-3 (175 miliardi di parametri) ha richiesto 355 anni-GPU per l’addestramento (la GPU è il tipo di processore utilizzato per l’IA), con un costo stimato di 4,6 milioni di dollari solo per l’energia e un consumo solo per l’addestramento di circa 1300 megawatt/ora (MWh), equivalente al consumo annuo di 130 abitazioni negli Stati Uniti. Ad esempio il training di BERT (una piattaforma IA di Google) ha prodotto 284 tonnellate di CO?, pari alle emissioni di 125 viaggi aerei transcontinentali. I centri dati che ospitano questi modelli consumano circa il 15% dell’energia totale di Google. È urgente spostarsi verso l’uso di piattaforme IA ‘green’, che divorano meno energia, pur se a scapito di un’accuratezza inferiore. Si stima che la Green AI (ottenuta in vario modo, ad esempio con una fase di addestramento su una quantità di dati inferiore, oppure optando per processori più sostenibili) può ridurre il consumo energetico e l’impronta del carbonio fino a 50% o più, a seconda della tecnica usata. Sono alcuni dei dati emersi dallo studio dei ricercatori Enrico Barbierato e Alice Gatti del Dipartimento di Matematica e Fisica dell’Università Cattolica del Sacro Cuore, campus di Brescia, pubblicato sulla rivista IEEE Access, secondo cui, il problema principale è che molte aziende puntano ancora sulla massima accuratezza dei modelli, accettando il costo elevato per l’ambiente che comportano.
Background
L’intelligenza artificiale è divenuta protagonista assoluta negli ultimi anni, soprattutto grazie al deep learning, che consente di ottenere risultati rivoluzionari in svariati settori. Tuttavia, modelli avanzati come ChatGPT hanno un impatto ambientale significativo a causa dell’elevato consumo energetico richiesto per il loro addestramento. In particolare, i cosiddetti Red AI, modelli addestrati con metodi ad alto consumo di risorse su grandi dataset, massimizzano la precisione e le prestazioni, ma comportano elevati costi energetici e un’impronta ecologica considerevole. Al contrario i Green AI sono modelli progettati per ridurre l’impatto ambientale attraverso l’uso di set di dati più piccoli, tecniche di addestramento meno dispendiose o l’adozione di fonti energetiche sostenibili per alimentarli. La Green IA punta all’efficienza più che alla mera accuratezza, spiegano gli esperti. Il costo energetico dell’IA cresce esponenzialmente con l’aumento delle dimensioni dei modelli. L’energia necessaria per migliorare l’accuratezza di un modello dell’1% si stima essere di un ordine 100 volte superiore.
Lo studio
Nel lavoro gli autori suggeriscono strategie per ridurre l’impatto della Red AI, a cominciare da un aumento dell’efficienza computazionale mediante l’utilizzo di hardware specializzato come le Tensor Processing Units (TPU, un tipo di processore che è fino a 30 volte più veloce e fino a 80 volte più efficiente di una normale CPU nei nostri PC) e GPU ottimizzate per ridurre il consumo. Poi può essere utile scegliere tecniche atte a ridurre il numero di parametri su cui viene addestrato il modello (fino all’80% di parametri in meno), senza ridurne le prestazioni. Ciò può abbattere il consumo energetico del 30-50%. E poi, ancora, bisogna optare per ‘energia rinnovabile per alimentare i processori. Alcuni modelli di AI sono stati testati con alimentazione 100% da fonti rinnovabili, abbattendo le emissioni quasi completamente.
“L’AI sostenibile è possibile, ma richiede compromessi tra accuratezza e consumo energetico – spiegano i ricercatori dell’università Cattolica. La Red AI genera un’impronta di carbonio enorme, mentre la Green AI cerca di ridurla con metodi più efficienti e l’uso di energia pulita. Tuttavia, la transizione è complessa perché le aziende puntano ancora su modelli sempre più grandi e precisi, a discapito dell’efficienza ambientale”, concludono.