Sommario
I software di intelligenza artificiale come ChatGPT di OpenAI e Bard di Google consumano ingenti quantità di energia e acqua a causa dei grandi data center che necessitano di raffreddamento.
L’impatto idrico dell’addestramento di ChatGPT-3
Uno studio condotto dall’Università del Colorado Riverside e dell’Università del Texas di Arlington ha scoperto che l’addestramento di ChatGPT-3 ha richiesto ben 700.000 litri d’acqua dolce per raffreddare il data center. Tale quantitativo d’acqua sarebbe sufficiente per produrre 370 auto BMW o 320 Tesla. Ogni conversazione tra un utente medio e ChatGPT equivale al consumo di una bottiglia d’acqua.
Preoccupazioni ambientali e crescente domanda idrica
I ricercatori esprimono preoccupazione per l’impatto del consumo d’acqua da parte dei chatbot sull’approvvigionamento idrico globale, considerando la crescente siccità e i problemi ambientali. Si prevede che l’utilizzo d’acqua aumenterà ulteriormente con modelli più recenti come GPT-4, che richiedono un insieme e un’elaborazione più vasta di dati rispetto ai predecessori. Anche Google presenta problemi simili: i suoi data center negli Stati Uniti hanno consumato circa 12,7 miliardi di litri d’acqua dolce nel 2021, di cui il 90% potabile.
La necessità di affrontare l’impronta idrica dell’IA
Gli autori dello studio sostengono che l’impronta idrica dei modelli di intelligenza artificiale non può più essere ignorata. È necessario affrontare la questione come una priorità nell’ambito degli sforzi collettivi per combattere le sfide idriche globali.