Em uma recente conferência em San Francisco, Gary Dickerson subiu ao palco e fez uma previsão ousada. O principal executivo da Applied Materials, que é um grande fornecedor para a indústria de semicondutores, alertou que:

 

…Na ausência de inovação significativa em materiais, fabricação e design de chips, as cargas de trabalho de IA dos data centers poderiam representar um décimo do uso mundial de eletricidade em 2025 .

 

Hoje, os milhões de data centers em todo o mundo absorvem pouco menos de 2% – e essa estatística abrange todos os tipos de cargas de trabalho manipuladas em suas vastas matrizes de servidores. A Applied Materials estima que atualmente os servidores que executam IA representam apenas 0,1% do consumo global de eletricidade.

Outros executivos de tecnologia também estão soando um alarme. Anders Andrae, da Huawei, acha que os data centers podem acabar consumindo um décimo da eletricidade do mundo até 2025, embora sua estimativa cubra todos os seus usos, não apenas a IA.

Jonathan Koomey, consultor especial do cientista sênior do Rocky Mountain Institute, é mais otimista. Ele espera que o consumo de energia do data center permaneça relativamente estável nos próximos anos, apesar de um aumento nas atividades relacionadas à IA.

Essas previsões amplamente divergentes destacam a incerteza em torno do impacto da IA ​​no futuro da computação em larga escala e as implicações finais para a demanda de energia.

 

Zoom nos fatos

A IA certamente tem fome por mais eletricidade. O treinamento e a execução de coisas como modelos de aprendizado profundo envolvem uma grande quantidade de dados, que tributa a memória e os processadores. Um estudo do grupo de pesquisa OpenAI diz que a quantidade de poder de computação necessária para impulsionar grandes modelos de IA já está dobrando a cada três meses e meio.

A previsão de Materiais Aplicados é, por sua própria admissão, um cenário de pior caso, projetado para destacar o que poderia acontecer na ausência de novas idéias em hardware e software. Sundeep Bajikar, chefe de estratégia corporativa e inteligência de mercado da empresa, diz que assume que haverá uma mudança ao longo do tempo no mix de informações usadas para treinar modelos de IA, com vídeos e outras imagens representando uma porcentagem crescente do total em relação a informações de texto e áudio. Os dados visuais são mais intensivos em termos de computação e, portanto, requerem mais energia.

Também haverá mais informações para os modelos analisarem, graças ao surgimento de coisas como veículos autônomos e sensores incorporados em outros dispositivos inteligentes. E a disseminação da conectividade sem fio 5G super rápida tornará ainda mais fácil o transporte de dados de e para os data centers.

Bajikar diz que essas e outras tendências sublinham a necessidade urgente do que sua empresa chama de “um novo manual” em materiais e manufatura para a era da IA. Alguns pesquisadores acham que a sede de energia da IA ​​pode até se tornar uma grande dor de cabeça ambiental: uma equipe da Universidade de Massachusetts, Amherst, publicou recentemente um estudo mostrando que o treinamento de vários modelos populares e grandes de IA produz quase cinco vezes o tempo de vida útil de um americano médio carro.

 

Apostar no básico

Mas previsões pessimistas ignoram vários desenvolvimentos importantes que podem limitar a tomada de poder da IA. Um deles é o surgimento de data centers em “hiperescala”, pioneiros em empresas como o Facebook e a Amazon.

Eles usam vastas matrizes de servidores básicos personalizados para tarefas específicas. As máquinas são mais eficientes em termos de energia do que servidores em centros convencionais que precisam conciliar uma gama mais ampla de funções. Uma mudança contínua para a hiperescala, juntamente com os avanços no resfriamento e outras tecnologias, é um grande motivo pelo qual o consumo de energia dos novos data centers foi basicamente cancelado por melhorias de eficiência nos últimos anos.

Novos tipos de microchips também ajudarão. A previsão de materiais aplicados pressupõe que as cargas de trabalho de IA continuarão em execução no hardware existente cuja eficiência melhora gradualmente nos próximos anos. Mas uma série de startups, bem como grandes empresas como Intel e AMD, estão desenvolvendo semicondutores que utilizam tecnologias como a fotônica para alimentar redes neurais e outras ferramentas de IA que usam muito menos energia.

Koomey diz que as projeções alarmistas também ignoram o fato de que, para alguns tipos de tarefas de IA, como reconhecimento de padrões, resultados aproximados dos modelos são suficientes. Isso significa que a energia não precisa ser gasta calculando os resultados para centenas de casas decimais.

Ironicamente, a maior verificação sobre o consumo de energia da IA ​​poderia realmente ser a própria IA. O Google já está usando a tecnologia desenvolvida pela DeepMind, empresa adquirida em 2014, para resfriar seus data centers com mais eficiência. A IA já havia ajudado a empresa a reduzir sua conta de refrigeração em 40%, fazendo recomendações a operadores humanos; agora ele está efetivamente executando sistemas de refrigeração nos centros por si só.

A IA também será usada para otimizar outros aspectos das operações dos data centers. E, como a vitória de resfriamento do Google, isso beneficiará todos os tipos de cargas de trabalho. Isso não significa que os data centers não acabarão consumindo muito mais poder por causa da crescente demanda por magia da IA, mas é mais um motivo para fazer previsões aqui é tão difícil.