Mon. Sep 23rd, 2024

O ChatGPT da OpenAI explodiu em cena há quase um ano, alcançando cerca de 100 milhões de usuários em dois meses e desencadeando um boom de IA. Nos bastidores, a tecnologia depende de milhares de chips de computador especializados. E nos próximos anos, poderão consumir imensas quantidades de eletricidade.

Uma análise revisada por pares publicada na terça-feira apresenta algumas estimativas iniciais. Num cenário intermédio, até 2027 os servidores de IA poderão utilizar entre 85 e 134 terawatts-hora (Twh) anualmente. Isto é semelhante ao que a Argentina, os Países Baixos e a Suécia utilizam cada um num ano, e representa cerca de 0,5% do consumo actual de electricidade no mundo.

“Não precisamos exagerar completamente”, disse Alex de Vries, o cientista de dados que fez a análise. “Mas, ao mesmo tempo, os números que anoto não são pequenos.”

A eletricidade necessária para fazer funcionar a IA poderia aumentar as emissões de carbono do mundo, dependendo se os centros de dados obtêm a sua energia a partir de combustíveis fósseis ou de recursos renováveis.

Em 2022, os data centers que alimentam todos os computadores, incluindo a nuvem da Amazon e o mecanismo de busca do Google, usaram cerca de 1 a 1,3 por cento da eletricidade mundial. Isso exclui a mineração de criptomoedas, que utilizou outros 0,4%, embora alguns desses recursos estejam agora sendo redistribuídos para executar a IA

De Vries é Ph.D. estudante da Vrije Universiteit Amsterdam e fundou a empresa de pesquisa Digiconomist, que publica o Índice de Consumo de Energia Bitcoin.

É impossível quantificar com exactidão o consumo de energia da IA, porque empresas como a OpenAI divulgam muito poucos detalhes, incluindo quantos chips especializados necessitam para executar o seu software. Então, de Vries descobriu uma maneira de estimar o consumo de eletricidade usando as vendas projetadas de servidores Nvidia A100 – o hardware estimado para ser usado por 95% do mercado de IA.

“Cada um desses servidores Nvidia são feras famintas de energia”, disse de Vries.

Ele começou com uma projeção recente de que a Nvidia poderia enviar 1,5 milhão desses servidores até 2027 e multiplicou esse número pelo uso de eletricidade de seus servidores: 6,5 quilowatts para os servidores DGX A100 da Nvidia, por exemplo, e 10,2 quilowatts para seus servidores DGX H100.

Ele fez várias advertências. Os clientes poderão usar os servidores com menos de 100% da capacidade, o que reduziria o consumo de eletricidade. Mas o resfriamento de servidores e outras infraestruturas aumentariam o total.

Como relatou o The Times, a Nvidia construiu uma liderança em hardware de IA que provavelmente persistirá por vários anos, embora os rivais estejam lutando para alcançá-la. O fornecimento limitado de chips Nvidia é um gargalo para o crescimento da IA, deixando grandes e pequenas empresas lutando para obter seu próprio suprimento de chips.

“Há muitas declarações dramáticas sobre o rápido crescimento da IA ​​e assim por diante, mas na verdade o que importa é a rapidez com que você pode disponibilizar esses chips”, disse Benjamin Lee, professor de engenharia elétrica e ciência da computação na Universidade da Pensilvânia. .

A Nvidia disse em comunicado por e-mail que os chips especializados da empresa são melhores do que outras opções, visto que seriam necessários muito mais chips convencionais para realizar as mesmas tarefas.

“A computação acelerada com tecnologia NVIDIA é o modelo de computação com maior eficiência energética para IA e outras cargas de trabalho de data center”, afirmou a empresa.

Alguns especialistas estão instando as empresas a considerarem o consumo de eletricidade ao projetarem a próxima geração de hardware e software de IA. Mas isso é difícil de vender quando as empresas correm para melhorar os seus modelos de IA o mais rapidamente possível.

“Talvez seja necessário desacelerar um pouco para começar a aplicar as soluções que temos”, disse Roberto Verdecchia, professor assistente do Laboratório de Tecnologias de Software da Universidade de Florença. “Não vamos fazer um modelo novo para melhorar apenas sua precisão e velocidade. Mas também, vamos respirar fundo e ver quanto estamos queimando em termos de recursos ambientais.”


Todas as grandes empresas que fazem negócios na Califórnia – incluindo empresas com utilização intensiva de IA como a OpenAI e a Google – terão de se tornar muito mais transparentes sobre os seus riscos e impactos climáticos ao abrigo de duas importantes leis de divulgação climática assinadas pelo governador Gavin Newsom no sábado.

A primeira exige que todas as empresas privadas com receitas globais anuais superiores a mil milhões de dólares divulguem quanto carbono produzem nas suas operações até 2026 e nas suas cadeias de abastecimento até 2027. A segunda exige que as empresas com receitas superiores a 500 milhões de dólares publiquem os seus dados financeiros relacionados com o clima. riscos até 2026.

As regras são as primeiras do tipo nos Estados Unidos e mais de 10.000 empresas podem ser afetadas. As leis provavelmente também terão impacto além das fronteiras do estado.

“Há poucas empresas que serão capazes de dizer que não faremos negócios na Califórnia”, disse-me Eric Orts, professor de estudos jurídicos e ética empresarial da Guardsmark na Wharton School. “Meu palpite é que teremos mais estados grandes que se juntarão à Califórnia e que isso se tornará, de uma forma ou de outra, um padrão federal.”

Esperava-se que a Comissão de Valores Mobiliários anunciasse regras de divulgação climática para empresas públicas este ano, mas a iniciativa foi interrompida após forte oposição dos republicanos.

A legislação da Califórnia ainda pode mudar. Newsom disse em carta ao Senado Estadual que os prazos de implementação dos projetos de lei são “provavelmente inviáveis” e expressou preocupação sobre o impacto financeiro nas empresas. Os reguladores têm até 2025 para resolver essas questões.

A União Europeia emitiu uma regra semelhante ordenando que as empresas divulgassem as suas emissões de carbono em 2021, que foi posteriormente diluída.

O senador Scott Wiener, autor de um dos projetos de lei, alertou sobre os esforços das empresas que se opõem à lei para “destruí-la” no próximo ano em uma postagem no X, antigo Twitter. “Não vamos deixar isso acontecer”, prometeu.

Manuela Andreoni


  • A Green Mountain Energy de Vermont quer acabar com as interrupções de eletricidade fornecendo baterias aos clientes.

  • Como os desastres se tornam mais comuns, os distritos escolares estão lutando para se adaptar ao calor, às enchentes e aos furacões.

  • A Espanha e a Agência Internacional de Energia apoiaram o apelo dos Países Baixos a uma coligação internacional para eliminar gradualmente os subsídios aos combustíveis fósseis, relata a Reuters.

  • Um Ph.D. de 27 anos. estudante é responsável por encontrar vazamentos de metano para as Nações Unidas, relata Bloomberg.

  • O partido de extrema direita da Alemanha transformou em arma a oposição à transição para a energia verde, relata o Politico.

  • Estes gráficos mostram onde no mundo estava implacavelmente quente neste verão.

  • Num ensaio de opinião, o presidente do Quénia e os chefes de duas instituições multilaterais em África argumentaram que o continente “não pode resolver a questão climática a menos que resolvamos a questão da dívida”.

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *