Os data centers para treinar e executar a IA podem em breve conter milhões de chips, custar centenas de bilhões de dólares e exigir energia equivalente à grade de eletricidade de uma grande cidade, se as tendências atuais se mantiverem.
Isso está de acordo com um novo estudo de pesquisadores de Georgetown, Epoch AI e Rand, que analisou a trajetória de crescimento dos data centers de IA em todo o mundo de 2019 a este ano. Os co-autores compilaram e analisaram um conjunto de dados de mais de 500 projetos de data center de IA e descobriram que, embora o desempenho computacional dos data centers esteja mais do que dobrar anualmente, também os requisitos de energia e os gastos de capital.
Os resultados ilustram o desafio na construção da infraestrutura necessária para apoiar o desenvolvimento das tecnologias de IA na próxima década.
O Openai, que disse recentemente que aproximadamente 10% da população mundial está usando sua plataforma ChatGPT, tem uma parceria com o SoftBank e outros para arrecadar até US $ 500 bilhões para estabelecer uma rede de data centers de IA nos EUA (e possivelmente em outros lugares). Outros gigantes da tecnologia, incluindo Microsoft, Google e AWS, prometeram coletivamente que gastaram centenas de milhões de dólares este ano apenas expandindo suas pegadas de data center.
De acordo com o estudo de Georgetown, Epoch e Rand, os custos de hardware para data centers de IA como o Colossus de Xai, que têm um preço de cerca de US $ 7 bilhões, aumentou 1,9x a cada ano entre 2019 e 2025, enquanto a energia precisa subir 2x anualmente no mesmo período. (Colossus atrai cerca de 300 megawatts de poder, até 250.000 famílias.)
O estudo também descobriu que os data centers se tornaram muito mais eficientes em termos de energia nos últimos cinco anos, com uma métrica -chave – desempenho computacional por watt – aumentando 1,34x a cada ano de 2019 a 2025. No entanto, essas melhorias não serão suficientes para compensar as necessidades crescentes de energia. Até junho de 2030, o principal data center de IA pode ter 2 milhões de chips de IA, custar US $ 200 bilhões e exigir 9 GW de energia – aproximadamente a produção de 9 reatores nucleares.
Não é uma nova revelação de que as demandas de eletricidade do Data Center de IA estejam no ritmo para coar muito a rede elétrica. Prevê -se que a ingestão de energia do data center cresça 20% até 2030, de acordo com uma análise recente do Wells Fargo. Isso poderia empurrar fontes de energia renováveis, que dependem do clima variável, para seus limites-estimulando uma aceleração em fontes de eletricidade não renováveis e ambientalmente prejudiciais, como combustíveis fósseis.
Os data centers de IA também representam outras ameaças ambientais, como consumo de água alto, e ocupam imóveis valiosos, bem como corroem as bases de impostos estaduais. Um estudo da Good Jobs First, uma organização sem fins lucrativos com sede em Washington, DC, estima que pelo menos 10 estados perdem mais de US $ 100 milhões por ano em receita tributária para data centers, resultado de incentivos excessivamente generosos.
É possível que essas projeções não venham passar, é claro, ou que as escalas de tempo estejam fora do tempo. Alguns hiperescaladores, como AWS e Microsoft, recuaram nos projetos de data center nas últimas semanas. Em uma nota aos investidores em meados de abril, os analistas da Cowen observaram que houve um “refrigeração” no mercado de data center no início de 2025, sinalizando o medo do setor de expansão insustentável.