Intelligenza artificiale non fa rima con sostenibilità
La crescita di popolarità e utilizzo, rafforzata dall’arrivo di ChatGpt e Google Bard, incide direttamente sull’impatto energetico. La ricercatrice Sasha Luccioni conferma la tendenza, dati alla mano.
Pubblicato il 09 giugno 2023 da Roberto Bonino

Sappiamo già da tempo che i data center sono responsabili del 3% delle emissioni di Co2 del pianeta. La popolarità che sta assumendo l’intelligenza artificiale è destinata ad appesantire lo scenario.
La ricercatrice Sasha Luccioni, che lavora come research scientist e climate lead in HuggingFace (un competitor di OpenAI), ma è anche membro fondatore di Climate Change AI, ha allestito un team che ha calcolato la quantità di energia necessaria per educare e utilizzare un’intelligenza artificiale creata sa zero. In quattro mesi di lavoro, l’equipe ha prodotto un volume pari a 50 tonnellate di Co2, la metà assorbita solo per il solo programma di addestramento, in prativa l'equivalente di trenta voli tra Londra e New York.
La ricercatrice ha sottolineato come la rete sulla quale il suo gruppo ha lavorato fosse in parte alimentata dall'energia nucleare. Il motore Gpt-3 consuma molta più energia ed è connesso a una rete più onerosa in termini di carbon footprint. In base ai calcoli effettuati, avrebbe generato 500 tonnellate di Co2 solo per il suo addestramento. Si tratta dell'equivalente di oltre un milione di chilometri percorsi da auto a benzina.
Va rilevato come i data center utilizzino per il loro raffreddamento soprattutto l’acqua, per non incidere sulle risorse energetiche anche con forme di condizionamento elettriche. C’è un altro studio che indica come Gpt-3, sempre per la sua formazione, avrebbe consumato 700mila litri di acqua dolce. Tuttavia, non ci sono molti dati ufficiali e gli stessi ricercatori tendono a sottolineare come il consumo di acqua dipenda fortemente dalla posizione dell'infrastruttura. In effetti, un server posizionato in un luogo caldo richiederà un raffreddamento maggiore rispetto a uno situato in una regione più temperata.
Per Luccioni il problema non risiede tanto nella progettazione delle infrastrutture che fanno funzionare l'Ai generativa, quanto piuttosto nell'uso che se ne fa. Secondo lei, questi programmi sono oggi usati in modo massivo, a causa dell'effetto modaiolo e del fatto che le aziende sono forzate a farne uso, per ragioni di pressione competitiva. La scienziata sottolinea come esistano metodi legati all’Ai a basso impatto, ma oggi prevalga l’hype che si è creato sulle ultime evoluzioni di ChatGpt o Google Bard.
Cover photo credit: Image by Freepik
CONSUMO ENERGETICO
IN EVIDENZA
- Sap spinge sul cloud, ma inquieta i clienti tradizionalisti
- Il retail fra trasformazione digitale e diversità dei consumatori
- I data center del futuro tra sostenibilità e resilienza
- Creato in Emilia Ranflood, nuovo alleato contro i ransomware
- Gli incidenti di sicurezza costano 3,5 milioni di euro in Italia