Augusto Carminati
MENU

© 2026 Augusto Carminati

Voltar para artigos

A economia do amor e da rejeição

Publicado em 12 de outubro de 2025

A economia do amor e da rejeição
Você deve se lembrar, não faz tanto tempo. Todo mundo odiava as fazendas de Bitcoin, elas eram o vilão energético do planeta: pilhas de GPUs sugando eletricidade o bastante pra acender cidades inteiras. Pois é, parece que foi em outra encarnação. Avançamos tanto que, hoje, essas mesmas máquinas foram recicladas. Só mudaram de função. Agora, em vez de minerar moedas, treinam modelos de linguagem. Os cabos são os mesmos, a luz é a mesma, a energia também. O problema também é o mesmo, senão pior, mas o discurso, ah! Esse sim, mudou bem. Hoje, mergulhei em um estudo de Hassan Ibrahim (2025), da King Faisal University , que resolveu medir essa hipocrisia com rigor científico. Ele usa três décadas de dados dos Estados Unidos (de 1990 a 2022) pra responder uma pergunta direta: a IA ajuda ou atrapalha as metas de neutralidade de carbono? A resposta, infelizmente, é: as duas coisas. E não na mesma proporção. Nos primeiros anos, a curva parecia promissora. Aplicações de IA reduziram emissões em setores energéticos e industriais, otimizando consumo e cortando desperdício. Foi a era dos ganhos fáceis, grids mais inteligentes, rotas de transporte mais eficientes, sensores agrícolas poupando fertilizante, puro otimismo. Só que o mesmo avanço que trouxe eficiência trouxe também apetite: cada salto tecnológico exigia mais poder computacional, mais data centers, mais refrigeração e, claro, mais energia. A metodologia do estudo é sofisticada — e implacável. Ibrahim aplicou a técnica de Wavelet Time Coherence, comum em climatologia, pra observar como as relações entre IA e emissões mudam ao longo do tempo. O que ele viu foi um gráfico de otimismo que vira ressaca: os efeitos positivos aparecem primeiro, mas, com o passar dos anos, são engolidos pelos negativos. A IA, em larga escala, se comporta como qualquer tecnologia intensiva: começa poupando energia, termina exigindo mais dela. Essa reversão ficou evidente a partir de meados de 2015, quando o salto no treinamento de modelos generativos e a explosão de dados levaram àquilo que o autor chama de computational rebound effect — o “efeito rebote computacional”. Traduzindo: o ganho de eficiência por unidade de tarefa foi superado pelo número cada vez maior de tarefas. O modelo melhorou, o custo total explodiu. A análise ARDL confirma: cada choque positivo de investimento em IA reduz emissões no curto prazo, mas aumenta no longo. A relação é assimétrica — as emissões sobem mais rápido do que caem. A máquina aprende, mas o planeta paga. O problema é que, enquanto os custos ambientais crescem, o entusiasmo público diminui. A narrativa “IA verde” é mais vendável que “IA faminta”. Só que Ibrahim mostra que, sem política pública firme, a equação não fecha. Ele sugere medidas concretas: precificação de carbono proporcional ao consumo computacional, padrões mínimos de eficiência energética para chips e servidores, incentivos a pesquisa em IA climática e vinculação entre expansão de data centers e fontes renováveis locais. Em outras palavras: o problema é técnico, mas a solução é política. Do ponto de vista empírico, Ibrahim estimou um modelo ARDL (Autoregressive Distributed Lag) para testar causalidade e elasticidade de longo e curto prazo entre variáveis de desenvolvimento em IA, emissões de CO₂ e políticas energéticas. O período analisado — de 1990 a 2022 — cobre tanto a fase pré-deep learning quanto a explosão recente de modelos generativos. Os resultados mostram uma relação estatisticamente significativa entre choques positivos de investimento em IA e aumento da demanda energética total, com coeficientes de elasticidade que variam entre 0,31 e 0,47 no longo prazo. Em termos simples, cada ponto percentual de expansão da atividade em IA eleva em até meio ponto a intensidade energética do país, mesmo após controlar fatores de eficiência tecnológica e variações no PIB. A análise Wavelet Time Coherence (WTC) adiciona uma camada temporal a essa relação. O método, importado da climatologia, permite observar coerências locais em frequência — ou seja, em quais períodos e escalas de tempo a IA influencia mais fortemente as emissões. Ibrahim encontrou coerência robusta entre os ciclos de inovação em IA e picos de emissão nas faixas de 8 a 16 anos, coincidindo com períodos de adoção massiva de infraestrutura digital (como a expansão de data centers após 2012 e o boom do aprendizado profundo em 2016). Já as janelas curtas, de 1 a 4 anos, mostraram correlações inversas, indicando reduções temporárias ligadas a ganhos de eficiência e substituição de processos manuais por automatizados. Em outras palavras: a IA ajuda no início, mas o próprio sucesso da adoção cria a próxima onda de emissões. Por fim, a decomposição NARDL (Nonlinear ARDL) revelou que os efeitos são assimétricos e irreversíveis em determinada escala. Os choques negativos — como restrições regulatórias ou aumento de preço da energia — têm impacto limitado e de curta duração sobre as emissões, enquanto choques positivos de investimento em IA produzem aumentos cumulativos e persistentes. O estudo também quantifica o custo energético médio de treinamento de modelos de larga escala, estimando entre 500 MWh e 1 000 MWh por modelo de linguagem de fronteira, o equivalente ao consumo anual de centenas de residências. Esses números explicam por que o autor alerta para a possibilidade de um ponto de inflexão estrutural: a partir de certo nível de escala computacional, a IA deixa de compensar sua própria pegada. Há uma ironia final nisso tudo. A IA é, ao mesmo tempo, a ferramenta mais promissora para combater a crise climática e a mais recente culpada por agravá-la. Ela é o antibiótico que causa infecção secundária: cura um problema enquanto prepara outro. E o paper mostra, com paciência científica, que ainda dá tempo de escolher qual lado da curva queremos ocupar. O que Ibrahim entrega, no fundo, é um aviso disfarçado de regressão estatística: sem regulação, a IA vira carvão digital. E, pela primeira vez na história, o problema não é a máquina aprender rápido demais — é o ser humano continuar aprendendo devagar.

Comentários (0)

Nenhum comentário ainda. Seja o primeiro a comentar!

Deixe seu comentário

Seu comentário será revisado antes de ser publicado.

Artigos relacionados