ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

L'intelligenza artificiale ha un appetito energetico più elevato e questo richiede nuove soluzioni di sostenibilità

DiAamir SheikhAamir Sheikh
Tempo di lettura: 4 minuti.
Consumo energetico dell'IA
  • Le operazioni di intelligenza artificiale generativa consumano molte volte più energia rispetto al cloud computing tradizionale.
  • L'intelligenza artificiale richiede inoltre grandi volumi di acqua per il raffreddamento degli stack GPU, il che sta mettendo a dura prova le risorse naturali.
  • Anche la limitata disponibilità di energia rinnovabile e le emissioni di carbonio sono motivo di preoccupazione.

Il fabbisogno energetico delle tecnologie di intelligenza artificiale è uno degli argomenti più discussi negli ambienti tecnologici. Sebbene consumino energia pari al fabbisogno di un intero Paese, hanno anche un impatto ambientale elevato.

ChatGPT di OpenAI, il prodotto di intelligenza artificiale più famoso al momento, consuma elettricità pari a quella necessaria per alimentare 23.000 case di medie dimensioni negli Stati Uniti ogni giorno, per elaborare risposte a 195 milioni di domande degli utenti. È come alimentare una piccola città.

Di solito sono le nostre piccole abitudini a far accelerare il consumo energetico dell'intelligenza artificiale, insieme allo sviluppo in atto presso i giganti della tecnologia e le startup. Diamo un'occhiata.

Spesso non percepiamo il consumo energetico dell'intelligenza artificiale

In quest'era digitale, quasi tutte le nostre attività sono in qualche modo collegate alla potenza di calcolo. La maggior parte delle cose che accadono sotto gli occhi di tutti sono collegate a un computer incorporato da qualche parte. 

Ad esempio, quando paghiamo alla cassa di un negozio e passiamo la carta, si verifica una lunga catena di transazioni su una rete di grandi dimensioni che non vediamo.

Quando passiamo un controllo al casello, il sistema ci addebita il costo, ma non lo vediamo. Lo stesso vale quando navighiamo sulle mappe: mentre noi vediamo solo il nostro telefono, da qualche parte c'è un data center che memorizza ed elabora i dati per guidarci sul nostro dispositivo.

Leggi anche: Il Giappone stima un forte aumento del fabbisogno energetico dovuto all'intelligenza artificiale e ai data center

Tutte queste transazioni computazionali che si verificano quando svolgiamo un'attività online o su un dispositivo vengono eseguite tramite un processo chiamato inferenza, che consuma molta energia. Sebbene aziende come OpenAI, Meta o Alphabet non rendano pubblici i dati effettivi sul loro consumo energetico, la Dott.ssa Sasha Luccioni di Hugging Face ha accennato ai costi più elevati associati all'addestramento e all'inferenza dell'IA. Ha scritto in un tweet, citando l'addestramento dell'IA, che:

"Abbiamo investito 100 milioni di dollari in calcoli solo per dare al tuo chatbot una voce sexy!" 

Menzionando l'inferenza, ha osservato,

“Ogni volta che cerchi tra le tue foto, consumi tanta energia quanto un intero isolato!” Sasha Luccioni.

Giusto per darvi un'idea di quanto questi sistemi di intelligenza artificiale, che consumano molta energia, stiano sottraendo alla rete. Lucioni studia l'intelligenza artificiale da molto tempo e sostiene che passare da un approccio di intelligenza artificiale non generativa a uno di intelligenza artificiale generativa può comportare un consumo energetico fino a 40 volte superiore per lo stesso compito.

Quali sono i dati energetici a cui stiamo guardando?

Con l'aumento dell'adozione dell'intelligenza artificiale, si stima che entro il 2026 il consumo energetico dei data center a livello globale quasi raddoppierà, richiedendo più di 1000 terawatt. 

https://twitter.com/SashaMTL/status/1790790422727369178

A gennaio, l'Agenzia Internazionale per l'Energia (AIE) ha pubblicato le sue previsioni sul consumo energetico mondiale nei prossimi due anni. La novità è che per la prima volta sono state incluse anche le proiezioni sulla quantità di elettricità utilizzata da data center, criptovalute e intelligenza artificiale.

“Il consumo totale di elettricità dei data center potrebbe superare i 1000 TWh nel 2026. Questa domanda è all'incirca equivalente al consumo di elettricità del Giappone.” Fonte: IEA.

Guardando i dati, non è chiaro come raggiungeremo un futuro energetico sostenibile con la crescente adozione della tecnologia in tutti i settori. Attualmente, il consumo di intelligenza artificiale è diventato una percentuale elevata dei carichi di lavoro nei data center, dai piccoli server di inferenza edge ai grandi cluster di addestramento dell'intelligenza artificiale.

Le emissioni di carbonio stanno aumentando

Per semplificare i dati sopra menzionati, il consumo energetico avrà un'impronta di carbonio equivalente a quella di 80 milioni di veicoli a benzina. A questo si aggiungono molti altri fattori che si sommano rapidamente.

Prendiamo ad esempio una GPU (Graphics Processing Unit). Si riscalda di più se utilizzata intensamente ed emette più calore. Immaginate un data center con migliaia di GPU in esecuzione in stack e la quantità di calore che genererebbero. Sono stati adottati diversi approcci per raffreddarle. Il più delle volte, si adotta il raffreddamento ad acqua, che aumenta defiil consumo di acqua e di energia per farla circolare.

“La formazione e i carichi di lavoro estremamente intensi devono essere gestiti in un ambiente più efficiente. Altrimenti, sottoporremo le reti elettriche non solo europee, ma di tutto il pianeta, a una pressione enorme che ci porterà ad affrontare seri problemi nei prossimi cinque-dieci anni.” Dominic Ward, CEO di Verne Global.

Con l'aumento del numero di data center e l'espansione e l'adattamento di quelli attuali alle capacità dell'intelligenza artificiale, verrà prodotto più calore, con conseguenti effetti negativi sull'ecosistema del nostro pianeta. Un'altra preoccupazione è che i data center stanno espandendo le loro attività a livello globale in luoghi in cui carbone e gas naturale sono i principali combustibili per la produzione di energia.

Leggi anche: Wall Street è a caccia di attori dell'intelligenza artificiale oltre a Nvidia e semiconduttori

A causa di alcune limitazioni dell'energia solare ed eolica, è molto più facile sfruttare queste fonti tradizionali, e le aziende si stanno riversando su di esse nella corsa all'oro dell'intelligenza artificiale. Gli esperti stimano che i miliardi di dispositivi connessi a Internet produrranno il 3,5% dell'anidride carbonica totale entro il prossimo anno. Quindi, anche noi utenti dobbiamo chiederci: abbiamo davvero bisogno di parlare con le nostre lavatrici e ottenere risposte generate dall'intelligenza artificiale?

I giganti della tecnologia hanno molte più responsabilità, ma ognuno deve fare la sua parte.


Reportage Cryptopolitan di Aamir Sheikh

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan/ non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamotronvivamente di effettuare ricerche indipendentident di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO