Representante da OpenAI para América Latina e Caribe manifestou preocupação sobre o aumento do consumo de energia pela IA do futuro
A inteligência artificial continua se desenvolvendo num ritmo frenético. E apesar de todas as possibilidades que o aperfeiçoamento da tecnologia abre, existe um grande temor relacionado ao avanço da IA.
Um dos questionamentos relacionados ao avanço da IA é se a capacidade energética mundial será capaz de atender ao expressivo aumento na demanda. Isso porque a previsão é que os supercomputadores do futuro gastem ainda mais energia.
Brasil pode ser um exemplo a ser seguido
De acordo com o líder de políticas públicas da OpenAI, criadora do ChatGPT, para América Latina e Caribe, “vamos precisar de uma quantidade de energia que não está disponível, hoje, no mundo para fazer a inteligência artificial do futuro”.
Nicolas Robinson de Andrade faz referência ao objetivo da empresa de construir uma superinteligência artificial, capaz de superar o raciocínio e o conhecimento coletivo da humanidade, e direcioná-la para o bem comum.
Na visão do representante da empresa, o Brasil pode ser um exemplo neste sentido. O país tem 88% de sua matriz elétrica vindo de fontes renováveis, como hidrelétricas, além de usinas térmicas e solares. No entanto, ainda não temos por aqui nenhum data center de IA. As informações são da Folha de São Paulo.
Os EUA fizeram um investimento pesado em cabos de fibra óptica e cabos coaxiais [que servem para transmissão de ondas de alta frequência e quantidades massivas de dados] e saíram muito à frente do resto do mundo na corrida por inteligência artificial.Nicolas Robinson de Andrade, líder de políticas públicas da OpenAI para América Latina e Caribe
Previsão é de aumento expressivo no consumo de energia pela IA
- A Agência Internacional de Energia (AIE) estimou, no início deste ano, que o consumo de energia elétrica nos data centers poderá passar dos 460 terawatt-hora (TWh), registrados em 2022, para 1.050 TWh em, 2026.
- Isso é mais do que o dobro do que o Brasil consumiu ao longo de 2023.
- O motivo deste aumento seriam as unidades de processamento gráfico (GPUs), peças que fazem trilhões de operações matemáticas por segundo e permitem a execução dos complexos modelos estatísticos por trás da IA generativa.
- Entretanto, eles consomem cerca dez vezes mais eletricidade do que um chip comum.
- Em outubro deste ano, inclusive, o G20 alertou para o impacto ambiental da inteligência artificial.
- Em declaração conjunta, os países membros do grupo alertaram para a necessidade de desenvolver estratégias produtivas mais sustentáveis.