L’intelligenza artificiale di Google porta con sé elevati costi: ecco i dati emersi da uno studio condotto di recente.
I sistemi basati sull’intelligenza artificiale consumano enormi quantità di dati per la formazione e richiedono anche un elevato dispendio di energia per funzionare. Un recente studio ha calcolato il consumo energetico e l’impronta di carbonio di diversi modelli linguistici di grandi dimensioni.
È emerso che ChatGPT, in esecuzione su 10.000 GPU NVIDIA, consuma ben 1.287 megawattora di elettricità, pari all’energia utilizzata da 121 case – per un anno – negli Stati Uniti.
In un articolo, pubblicato sulla rivista Joule, l’autore Alex de Vries sostiene che, in futuro, la richiesta di energia per alimentare gli strumenti di intelligenza artificiale potrebbe superare quella di alcune piccole nazioni.
“Nel 2021, il consumo totale di elettricità di Google è stato di 18,3 TWh e l’intelligenza artificiale rappresentava il 10%-15% di questo totale. Lo scenario peggiore suggerisce che l’intelligenza artificiale di Google da sola potrebbe consumare la stessa quantità di elettricità di un Paese come l’Irlanda (29,3 TWh all’anno)“, ha affermato Vries.
Si è registrato un boom dell’intelligenza artificiale generativa da quando OpenAI ha presentato ChatGPT al mondo a fine 2022. Ciò ha comportato un aumento della domanda di chip AI.
NVIDIA, che è il principale fornitore di chip di fascia alta, ha registrato un fatturato record di 16 miliardi di dollari nel trimestre conclusosi a luglio 2023.
Recentemente, si è verificato anche un aumento del numero di aziende che sviluppano i propri chip per l’utilizzo dell’ intelligenza artificiale.
Google e Amazon hanno già i propri chip AI, mentre circolano voci secondo le quali Microsoft svelerà il suo chip hardware interno il mese prossimo.
Microsoft, d’altronde, pare abbia fatto ingenti investimenti in OpenAI, che, secondo le ultime indiscrezioni, è anche nelle fasi iniziali di sviluppo dei propri chip o di acquisizione di un’azienda di semiconduttori che li produrrebbe per loro.
Tutto ciò significa che ci sarà un aumento significativo dell’impronta energetica del settore dell’intelligenza artificiale.
Secondo SemiAnalysis, blog leader nel settore dei semiconduttori e dell’intelligenza artificiale, si stima che l’integrazione di un chatbot simile a ChatGPT con ogni ricerca su Google richiederebbe 512.820 server A100 HGX di NVIDIA, il che significa oltre 4 milioni di GPU. Con una richiesta di potenza di 6,5 kW per server, ciò si tradurrebbe in un consumo giornaliero di elettricità di 80 GWh e un consumo annuale di 29,2 TWh.
Gli strumenti di IA hanno una fase iniziale di addestramento seguita da una fase di inferenza. La fase di formazione è quella ad alta intensità energetica, mentre quella di inferenza avviene quando questi strumenti generano output in base ai dati su cui sono addestrati.