C'è un lato oscuro dell'intelligenza artificiale di cui si parla spesso ma di cui si dà meno importanza, e non è altro che il suo costo climatico.
Nonostante tutto l'entusiasmo e il potenziale dell'IA, addestrare i modelli di IA richiede enormi quantità di energia e, anche quando la si utilizza per scrivere testo o creare immagini, necessita comunque di energia sufficiente per funzionare. Questi processi comportano il rilascio di notevoli quantità di carbonio, a seconda di dove si trova il data center e dove opera il modello di IA.

I modelli più grandi necessitano di più energia
Gli esperti affermano che, con il progredire e lo sviluppo della tecnologia, le emissioni di carbonio non faranno che peggiorare, poiché le aziende stanno cercando di costruire modelli ancora più grandi, perché la tecnologia ha una natura scalabile e le sue prestazioni aumentano con le dimensioni, il che a sua volta è vantaggioso per le aziende ma costoso per l'ambiente.
Alex de Vires sostiene che modelli più grandi comportano anche un maggiore fabbisogno energetico, il che non giova all'ambiente. È il fondatore di Digiconomist e il suo studio si occupa di studiare le conseguenze ambientali delle nuove tecnologie.
L'addestramento di modelli di intelligenza artificiale su larga scala, come quelli che operano nel back-end di ChatGPT, consuma molta energia, come stimato dai ricercatori nel corso degli anni. David Petterson, professore di informatica all'Università della California a Berkeley e autore principale dell'articolo di ricerca pubblicato nel 2021, ha scritto che il modello di intelligenza artificiale GPT-3, perfezionato da OpenAI per essere utilizzato come ChatGPT, richiedeva apparentemente 1287 megawatt di elettricità per l'addestramento. Questa quantità di energia è sufficiente ad alimentare 123 case americane di medie dimensioni per un anno intero.
Anche se qui stiamo parlando del modello di intelligenza artificiale più famoso al mondo, che potrebbe essere il più grande del suo tempo, in seguito sono stati sviluppati molti altri modelli, che consumano anch'essi enormi quantità di energia.
Secondo Sacha Luccioni, responsabile dell'intelligenza artificiale e del clima di Hugging Face, il modello Gopher, un progetto di Google DeepMind annunciato nel 2021, necessitava di circa 1066 megawattora, come ha affermato in un altro documento di ricerca pubblicato nel 2022.
Il modello di generazione attuale ha un costo climatico ancora maggiore
Ma entrambi appartengono a una generazione precedente di modelli di intelligenza artificiale e sono considerevolmente piccoli rispetto agli standard odierni. Il successore di GPT-3, GPT-4, è considerato 10 volte più grande, e il suo addestramento ha richiesto un'energia compresa tra 51 e 62 gigawatt, che, secondo il ricercatore Kasper Groes Albin Ludvigsen, è superiore al fabbisogno collettivo di 4600 case americane.

Allo stesso modo, Google ora ha un modello molto più grande di Gopher, chiamato Gemini, e nonostante Google non abbia rivelato quanta energia richiede, il calcolo è semplice: più grande lo costruisci, più energia richiede.
Queste stime si riferiscono solo alle fasi di sviluppo e addestramento. C'è un altro punto importante: questi modelli sono concepiti per l'uso in operazioni reali che richiedono di produrre output basati sull'addestramento ricevuto, e produrre tale output in risposta alle richieste degli utenti richiede anche energia.
Secondo gli esperti, la risposta di ChatGPT a 1000 query richiede un consumo di 47 watt, ovvero l'equivalente di cinque normali lampadine a LED per un'ora. Ora, pensate a quanto rapidamente tutto questo possa aumentare, dato che stiamo parlando solo di risposte basate su testo.
Gli esperti sostengono che gli sviluppatori di intelligenza artificiale possono ridurre la loro impronta di carbonio utilizzando data center alimentati da energia pulita, poiché le emissioni di carbonio dell'intelligenza artificiale variano notevolmente a seconda di dove viene immagazzinata e utilizzata.
Secondo Bloomberg, la domanda di elettricità è già aumentata negli ultimi tempi e la domanda aggiuntiva derivante dall'espansione dei data center sta superando anche l'impiego di fonti di energia rinnovabile. Pertanto, le unità di fornitura in tutto il mondo stanno ritardando la chiusura delle centrali elettriche a carbone e a gas naturale, contribuendo ulteriormente all'impatto ambientale dell'intelligenza artificiale.
La storia originale può essere vista qui .

