⚡ O enorme apetite energético dos chatbots de IA: números difíceis de acreditar

Publicado por Adrien,
Fonte: Energy Policy
Outras Línguas: FR, EN, DE, ES
A inteligência artificial, e particularmente os chatbots como o ChatGPT, tornaram-se ferramentas indispensáveis no nosso quotidiano digital. No entanto, poucas pessoas se dão conta da enorme quantidade de energia necessária para fazer funcionar estes sistemas sofisticados. Por trás de cada resposta esconde-se uma infraestrutura colossal que consome recursos consideráveis, levantando questões sobre a sustentabilidade desta tecnologia.

Os centros de dados, onde estão alojados e treinados os modelos de IA, representam uma parte significativa do consumo elétrico mundial. Nos Estados Unidos, utilizaram 4,4% da eletricidade em 2023, e esta proporção deverá pelo menos duplicar até 2030. Este crescimento rápido está diretamente ligado à explosão da procura pelos serviços de inteligência artificial, com milhares de milhões de pedidos processados todos os dias.


O treino dos modelos de linguagem é particularmente gastador de energia. Para aprender a reconhecer padrões e fazer previsões, estes sistemas analisam conjuntos de dados gigantescos durante semanas ou meses. Por exemplo, o treino do GPT-4 necessitou de 50 gigawatt-horas, o suficiente para alimentar uma grande cidade como São Francisco durante três dias. Esta fase baseia-se em servidores poderosos equipados com múltiplas unidades de processamento gráfico (GPU).

A inferência, ou seja, o momento em que o chatbot gera uma resposta a partir de um pedido, também consome muita energia devido ao volume colossal de solicitações. Com mais de 2,5 mil milhões de prompts diários apenas no ChatGPT, os servidores têm de funcionar permanentemente para fornecer respostas quase instantâneas.

Os investigadores trabalham para quantificar melhor estes consumos e encontrar formas de os reduzir. No entanto, as grandes empresas tecnológicas mantêm frequentemente estes dados confidenciais, o que complica a avaliação precisa do impacto ambiental.

O processo de treino dos modelos de IA


O treino de um modelo de inteligência artificial consiste em fazê-lo analisar vastos conjuntos de dados para que aprenda a reconhecer padrões e realizar tarefas específicas. Isto implica cálculos matemáticos executados por processadores especializados, frequentemente GPUs concebidas para processamento paralelo.

Quanto maior e mais complexo for o modelo, mais longo e energético será o treino. Os investigadores visam criar sistemas mais eficientes, mas a corrida ao desempenho leva frequentemente a privilegiar o tamanho em detrimento da eficiência.

Técnicas como a aprendizagem por transferência permitem reutilizar modelos pré-treinados para novas tarefas, reduzindo assim a necessidade de recomeçar o treino desde o início. Isto permite economizar energia, mas não resolve completamente o problema.

A otimização dos algoritmos e a utilização de hardware mais económico em energia são caminhos promissores para tornar o treino mais sustentável no futuro.
Página gerada em 0.223 segundo(s) - hospedado por Contabo
Sobre - Aviso Legal - Contato
Versão francesa | Versão inglesa | Versão alemã | Versão espanhola