Script = https://s1.trrsf.com/update-1742912109/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Entenda em 4 gráficos como a IA mudou profundamente os chips de computação

Demandas de inteligência artificial criaram um novo momento para processadores e data centers

12 abr 2025 - 17h10
Compartilhar
Exibir comentários

A corrida para desenvolver a inteligência artificial (IA) é impulsionada por pequenos chips de silício chamados GPUs, que foram originalmente criados para videogames.

Agora, as empresas de tecnologia estão incorporando as GPUs - que são ideais para executar os cálculos que alimentam a IA - da forma mais compacta possível em computadores especializados. O resultado é um novo tipo de supercomputador - um conjunto de até 100 mil chips conectados em prédios conhecidos como data centers para trabalhar na criação de sistemas avançados de IA.

Todo esse poder de computação tem um custo. A OpenAI, fabricante do ChatGPT, espera construir cerca de cinco instalações que, em conjunto, consumiriam mais eletricidade do que as cerca de 3 milhões de residências.

À medida que as empresas de tecnologia perseguem o sonho da IA, esses data centers estão surgindo em todo o mundo, forçando os gigantes da tecnologia a buscar a eletricidade para alimentá-los e a água para os sistemas de resfriamento, a fim de evitar que os chips derretam em seu próprio calor.

Essa é a mudança mais importante na computação desde os primórdios da World Wide Web. Assim como as empresas reconstruíram completamente seus sistemas de computador para acomodar a nova internet comercial na década de 1990, agora elas estão reconstruindo tudo novamente - desde os componentes até a forma como os computadores são alojados e alimentados - para acomodar a IA.

As grandes empresas de tecnologia construíram data centers de computadores em todo o mundo durante duas décadas. Os centros estavam repletos de computadores para lidar com o tráfego online que inundava os serviços de internet das empresas, incluindo mecanismos de pesquisa, aplicativos de e-mail e sites de comércio eletrônico.

No entanto, essas instalações eram leves em comparação com o que está por vir. Em 2006, o Google abriu seu primeiro data center em The Dalles, Oregon, gastando cerca de US$ 600 milhões para concluir a instalação. Em janeiro, a OpenAI e vários parceiros anunciaram um plano para gastar cerca de US$ 100 bilhões em novos data centers, começando com um campus no Texas. Eles planejam investir mais US$ 400 bilhões nessa e em outras instalações nos Estados Unidos.

A mudança na computação está remodelando não apenas a tecnologia, mas também as finanças, a energia e as cidades. As empresas de capital privado estão investindo dinheiro em empresas de data center. Os eletricistas estão se aglomerando nas áreas onde as instalações estão sendo construídas. E, em alguns lugares, os habitantes locais estão se opondo aos projetos, preocupados com o fato de que eles trarão mais danos do que benefícios.

Por enquanto, as empresas de tecnologia estão pedindo mais poder de computação e mais eletricidade do que o mundo pode fornecer. A OpenAI espera arrecadar centenas de bilhões de dólares para construir fábricas de chips de computador no Oriente Médio. O Google e a Amazon recentemente fecharam acordos para construir e implantar uma nova geração de reatores nucleares. E elas querem fazer isso rapidamente.

O mantra "maior é melhor" foi questionado em dezembro, quando a DeepSeek disse que havia construído um dos sistemas de IA mais poderosos do mundo usando muito menos chips de computador do que muitos especialistas acreditavam ser possível. Isso levantou dúvidas sobre os gastos frenéticos do Vale do Silício.

Os gigantes da tecnologia dos EUA não se intimidaram. O objetivo extremamente ambicioso de muitas dessas empresas é criar inteligência artificial geral, ou AGI - uma máquina capaz de fazer qualquer coisa que o cérebro humano possa fazer - e elas ainda acreditam que ter mais poder de computação é essencial para chegar lá.

Amazon, Meta, Microsoft e Google indicaram recentemente que seus gastos - que são usados principalmente para construir data centers - podem chegar a US$ 320 bilhões este ano. Isso é mais do que o dobro do que eles gastaram há dois anos.

O New York Times visitou cinco novos campi de data centers na Califórnia, Utah, Texas e Oklahoma e conversou com mais de 50 executivos, engenheiros, empreendedores e eletricistas para contar a história da fome insaciável do setor de tecnologia por esse novo tipo de computação.

"O que provavelmente aconteceria na próxima década foi comprimido em um período de apenas dois anos", disse Sundar Pichai, CEO do Google, em uma entrevista ao Times. "A IA é o acelerador."

Novos chips de computador para nova IA

O grande avanço na computação para IA foi impulsionado por um pequeno ingrediente: os chips de computador especializados chamados de unidades de processamento gráfico, ou GPUs.

Empresas como a Nvidia originalmente projetaram esses chips para renderizar gráficos para videogames. Mas as GPUs tinham habilidade para executar a matemática que alimenta as chamadas redes neurais, que podem aprender habilidades analisando grandes quantidades de dados. Elas são a base dos chatbots e de outras tecnologias de IA.

No passado, a computação dependia em grande parte de chips chamados de unidades centrais de processamento, ou CPUs. Elas podiam fazer muitas coisas, inclusive a matemática simples que alimenta as redes neurais.

Mas as GPUs podem fazer esses cálculos mais rapidamente - muito mais rapidamente. Em um dado momento, um chip tradicional pode fazer um único cálculo. Nesse mesmo momento, uma GPU pode fazer milhares. Os cientistas da computação chamam isso de processamento paralelo. E isso significa que as redes neurais podem analisar mais dados.

"Eles são muito diferentes dos chips usados apenas para exibir uma página da web", disse Vipul Ved Prakash, CEO da Together AI, uma consultoria de tecnologia. "Eles executam milhões de cálculos como uma forma de as máquinas 'pensarem' em um problema." Assim, as empresas de tecnologia começaram a usar um número cada vez maior de GPUs.

Ao longo do caminho, a Nvidia reconstruiu suas GPUs especificamente para IA, colocando mais transistores em cada chip para executar ainda mais cálculos a cada segundo que passava. Em 2013, o Google começou a construir seus próprios chips de IA.

Esses chips do Google e da Nvidia não foram projetados para executar sistemas operacionais de computador e não podem lidar com as várias funções de operação de um laptop com Windows ou de um iPhone. Mas, trabalhando juntos, eles aceleraram a criação da IA.

"O modelo antigo durou cerca de 50 anos", disse Norm Jouppi, engenheiro do Google que supervisiona os esforços da empresa para criar novos chips de silício para IA. "Agora temos uma maneira completamente diferente de fazer as coisas."

Quanto mais próximos os chips, melhor

Não são apenas os chips que são diferentes. Para obter o máximo das GPUs, as empresas de tecnologia precisam acelerar o fluxo de dados entre os chips. "Cada GPU precisa se comunicar com todas as outras GPUs o mais rápido possível", diz Dave Driggers, diretor de tecnologia da Cirrascale Cloud Services.

Quanto mais próximos os chips estiverem uns dos outros, mais rápido eles poderão trabalhar. Portanto, as empresas estão reunindo o maior número possível de chips em um único data center. Elas também desenvolveram novos hardwares e cabeamentos para transmitir rapidamente os dados.

Isso está mudando a forma como os data centers - que são essencialmente grandes edifícios cheios de racks de computadores empilhados uns sobre os outros - funcionam.

Em 2021, antes do boom da IA, a Meta abriu dois data centers a uma hora ao sul de Salt Lake City e estava construindo mais três. Essas instalações - cada uma do tamanho do Empire State Building deitado de lado no deserto - ajudariam a alimentar os aplicativos da empresa, como o Facebook e o Instagram.

Mas depois que a OpenAI lançou o ChatGPT em 2022, a Meta reavaliou seus planos de IA. Ela teve que amontoar milhares de GPUs em um novo data center para que pudessem realizar semanas e até meses de cálculos necessários para criar uma única rede neural e avançar a IA da empresa.

"Tudo deve funcionar como um supercomputador gigante, do tamanho de um data center", disse Rachel Peterson, vice-presidente de data centers da Meta. "Essa é uma equação totalmente diferente."

Em poucos meses, a Meta iniciou a construção de um sexto e sétimo data center em Utah, ao lado dos outros cinco. Nessas instalações de 215 mil metros quadrados, os técnicos preencheram cada rack com o hardware usado para treinar IA, deslizando em máquinas quadradas repletas de GPUs que podem custar dezenas de milhares de dólares.

Em 2023, a Meta incorreu em uma despesa de reestruturação de US$ 4,2 bilhões, em parte para redesenhar muitos de seus futuros projetos de data center para IA. Sua atividade foi emblemática de uma mudança que está ocorrendo em todo o setor de tecnologia.

As máquinas de IA precisam de mais eletricidade - muito mais

Novos data centers repletos de GPUs significavam novas demandas de eletricidade. Em dezembro de 2023, a Cirrascale alugou um data center tradicional de 43 mil metros quadrados em Austin, Texas, que consumia 5 megawatts de eletricidade, o suficiente para abastecer cerca de 3,6 mil residências. Em seu interior, os computadores estavam dispostos em cerca de 80 fileiras. Em seguida, a empresa retirou os computadores antigos para converter a instalação para IA.

Os 5 megawatts que costumavam alimentar um prédio cheio de CPUs agora são suficientes para operar apenas oito a 10 fileiras de computadores com GPUs. A Cirrascale pode se expandir para cerca de 50 megawatts o consumo, mas mesmo isso não encheria o data center de GPUs. E isso ainda é pouco. A OpenAI pretende construir cerca de cinco data centers que superam o uso de eletricidade de cerca de 3 milhões de residências.

Não se trata apenas de esses data centers terem mais equipamentos em um espaço menor. Os chips de computador voltados para IA precisam de muito mais eletricidade do que os chips tradicionais. Uma CPU típica precisa de cerca de 250 a 500 watts para funcionar, enquanto as GPUs usam até 1.000 watts.

A construção de um data center é, em última análise, uma negociação com a concessionária de energia local. Quanta energia ela pode fornecer? A que custo? Se for necessário expandir a rede elétrica com milhões de dólares em novos equipamentos, quem pagará pelas atualizações?

Os data centers consumiram cerca de 4,4% do total de eletricidade nos Estados Unidos em 2023, ou seja, mais do que o dobro da energia das instalações usadas para minerar criptomoedas. Isso pode triplicar até 2028, de acordo com um relatório de dezembro publicado pelo Departamento de Energia.

"O tempo é a moeda corrente no setor neste momento", disse Arman Shehabi, pesquisador do Lawrence Berkeley National Laboratory que liderou o relatório. Há uma corrida para continuar construindo, disse ele, e "não vejo isso desacelerando nos próximos anos".

Os operadores de data centers estão tendo problemas para encontrar energia elétrica nos Estados Unidos. Em áreas como a Virgínia do Norte - o maior centro de data centers do mundo devido à sua proximidade com os cabos submarinos que transportam dados de e para a Europa - essas empresas praticamente esgotaram a eletricidade disponível.

Alguns gigantes da IA estão recorrendo à energia nuclear. A Microsoft está reiniciando a usina nuclear de Three Mile Island, na Pensilvânia. Outros estão seguindo caminhos diferentes. Elon Musk e a xAI, sua startup de IA, recentemente ignoraram a energia limpa em favor de uma solução mais rápida: instalar suas próprias turbinas a gás em um novo data center em Memphis, Tennessee.

Minhas conversas passaram de "Onde podemos conseguir chips de última geração?" para "Onde podemos conseguir energia elétrica?", disse David Katz, sócio da Radical Ventures, uma empresa de capital de risco que investe em IA.

A IA fica tão quente que só a água pode resfriá-la

Esses sistemas de IA excepcionalmente densos levaram a outra mudança: uma maneira diferente de resfriar os computadores. Os sistemas de IA podem ficar muito quentes. À medida que o ar circula pela parte frontal de um rack e atravessa os chips que estão fazendo cálculos, ele se aquece. No data center da Cirrascale em Austin, a temperatura em torno de um rack começou em 21º na parte frontal e terminou em 36º na parte traseira.

Se um rack não for resfriado adequadamente, as máquinas - e possivelmente todo o data center - correm o risco de pegar fogo. Nos arredores de Pryor, uma cidade agrícola e pecuária no nordeste de Oklahoma, o Google está resolvendo esse problema em grande escala.

Treze data centers do Google se erguem das planícies gramadas. Esse campus abriga dezenas de milhares de racks de máquinas e utiliza centenas de megawatts de eletricidade provenientes de estações de energia de metal e fios instalados entre os edifícios de concreto. Para evitar o superaquecimento das máquinas, o Google bombeia água fria por todos os 13 edifícios.

No passado, os canos de água do Google passavam por corredores vazios ao lado dos racks de computadores. À medida que a água fria passava pelos canos, ela absorvia o calor do ar ao redor. Mas quando os racks estão cheios de chips de IA, a água não fica perto o suficiente para absorver o calor extra.

Agora, o Google passa seus canos de água bem perto dos chips. Somente assim a água pode absorver o calor e manter os chips funcionando. O bombeamento de água em um data center repleto de equipamentos elétricos pode ser arriscado, pois a água pode vazar dos canos para o hardware do computador. Portanto, o Google trata sua água com produtos químicos que a tornam menos propensa a conduzir eletricidade e a danificar os chips.

Depois que a água absorve o calor de todos esses chips, as empresas de tecnologia também precisam encontrar maneiras de resfriar a água novamente.

Em muitos casos, elas fazem isso usando torres gigantes no teto do data center. Parte da água evapora dessas torres, o que resfria o restante, da mesma forma que as pessoas são resfriadas quando suam e o suor evapora da pele.

"Isso é o que chamamos de resfriamento livre - a evaporação que acontece naturalmente em uma manhã fria e seca", disse Joe Kava, vice-presidente de data centers do Google.

O Google e outras empresas que usam essa técnica precisam continuar reabastecendo a água que é bombeada pelo data center, o que pode prejudicar o abastecimento de água local.

Os data centers do Google consumiram 28 bilhões de litros de água em 2023, um aumento de 17% em relação ao ano anterior. Na Califórnia, um estado que enfrenta uma seca, mais de 250 data centers consomem bilhões de galões de água por ano, o que faz soar o alarme entre as autoridades locais.

Algumas empresas, incluindo a Cirrascale, usam chillers enormes - essencialmente condicionadores de ar - para resfriar a água. Isso reduz a pressão sobre o suprimento de água local, pois elas reutilizam praticamente toda a água. Mas o processo exige mais energia elétrica.

Não há um fim à vista. No ano passado, o Google inaugurou 11 data centers na Carolina do Sul, Indiana, Missouri e em outros lugares. Meta disse que sua mais nova instalação, em Richland Parish, Louisiana, seria grande o suficiente para cobrir a maior parte do Central Park, o centro de Manhattan, Greenwich Village e o Lower East Side da cidade de Nova York.

"Este será um ano decisivo para a IA", disse Mark Zuckerberg, CEO da Meta, em janeiro, em uma publicação no Facebook que concluía: "Vamos construir!"

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Estadão
Compartilhar
Curtiu? Fique por dentro das principais notícias através do nosso ZAP
Inscreva-se
Publicidade
Seu Terra












Publicidade