Your bank is using your money. You’re getting the scraps.WATCH FREE

O elevado custo climático da IA ​​vai além da simples qualidade do ar — exige mais

Neste post:

  • As ferramentas de inteligência artificial são empolgantes de usar, mas têm um custo.
  • O modelo de IA requer quantidades enormes de energia para ser treinado e executado em operações, na ordem de gigawatts.
  • Os centros de dados são um fator crucial para adiar o desligamento de unidades de geração de energia a carvão e gás, a fim de atender à demanda.

Existe um lado sombrio da inteligência artificial que é frequentemente discutido, mas pouco considerado, e esse lado sombrio é o seu custo climático.

Apesar de toda a empolgação e potencial da IA, o treinamento de modelos de IA exige enormes quantidades de energia, e mesmo quando usada para escrever textos ou criar imagens, ainda requer energia suficiente para funcionar. Esses processos resultam na liberação de quantidades substanciais de carbono, dependendo da localização do data center e do ambiente de operação do modelo de IA.

Fonte: Leyla Acaroglu .

Modelos maiores precisam de mais energia

Especialistas afirmam que, à medida que a tecnologia amadurece e se desenvolve, as emissões de carbono só irão piorar com o tempo, visto que as empresas estão tentando construir modelos cada vez maiores, pois a tecnologia tem uma natureza escalável e seu desempenho aumenta com o tamanho, o que, por sua vez, é benéfico para os negócios, mas custoso para o meio ambiente.

Alex de Vires afirma que modelos maiores também levam a maiores necessidades energéticas, o que não é bom para o meio ambiente. Ele é o fundador da Digiconomist, e a área de pesquisa de sua empresa é o estudo das consequências ambientais das novas tecnologias.

O treinamento de modelos de IA em larga escala, como os que operam nos bastidores do ChatGPT, consome muita energia, conforme estimativas de pesquisadores ao longo dos anos. David Petterson, professor de ciência da computação na UC Berkeley e principal autor do artigo científico publicado em 2021, escreveu que o modelo de IA GPT-3, aprimorado pela OpenAI para ser usado como ChatGPT, aparentemente exigiu 1287 megawatts de eletricidade para treinamento. Essa quantidade de energia é suficiente para abastecer 123 residências americanas de tamanho médio durante um ano inteiro.

Veja também  Como a arte de encantar cavalos revela os segredos do design de robôs.

Embora estejamos falando do modelo de IA mais famoso do mundo, que talvez seja o maior de sua época, muitos outros modelos foram desenvolvidos posteriormente, os quais também consomem enormes quantidades de energia. 

De acordo com Sacha Luccioni, líder de IA e clima da Hugging Face, o modelo Gopher, um projeto do Google DeepMind anunciado em 2021, necessitava de aproximadamente 1066 megawatts-hora, conforme mencionado em outro artigo de pesquisa publicado em 2022. 

O modelo da geração atual tem um custo climático ainda maior

Mas esses dois modelos pertencem a uma geração anterior de IA e são consideravelmente pequenos para os padrões atuais. O sucessor do GPT-3, o GPT-4, é considerado 10 vezes maior e seu treinamento exigiu energia entre 51 e 62 gigawatts, o que, segundo o pesquisador Kasper Groes Albin Ludvigsen, é mais do que a necessidade coletiva de 4.600 residências americanas. 

Fonte: Statista .

Da mesma forma, o Google agora possui um modelo muito maior que o Gopher, chamado Gemini, e apesar de o Google não ter divulgado quanta energia ele consome, o cálculo é simples: quanto maior a estrutura, mais energia ela requer.

Essas estimativas se referiam apenas às fases de desenvolvimento e treinamento. Há outro ponto importante: como esses modelos são feitos para uso em operações reais que exigem que eles produzam resultados com base no treinamento recebido, e produzir esses resultados em resposta às solicitações dos usuários também requer energia.

Veja também:  Startups chinesas de chips de IA estão reduzindo as especificações de desempenho para garantir acesso à TSMC.

Segundo especialistas, a resposta do ChatGPT a 1000 consultas exige um consumo de 47 watts, o equivalente a manter cinco lâmpadas LED comuns acesas por uma hora. Agora imagine como esse consumo pode aumentar rapidamente, considerando que estamos falando apenas de respostas em texto. 

Especialistas argumentam que os desenvolvedores de IA podem reduzir sua pegada de carbono usando data centers que funcionam com energia limpa, já que as emissões de carbono da IA ​​variam muito dependendo de onde ela é armazenada e opera.

Segundo a Bloomberg, a demanda por eletricidade já aumentou nos últimos tempos, e a demanda adicional proveniente da expansão dos data centers está superando a implantação de fontes de energia renováveis. Assim, as unidades de fornecimento em todo o mundo também estão adiando o fechamento de usinas termelétricas a carvão e gás natural, o que contribui para o aumento da pegada de carbono da inteligência artificial.

A história original pode ser vista aqui .

As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas .

Compartilhar link:

Aviso:  As informações fornecidas não constituem aconselhamento de investimento. Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan