Connect with us

Inteligência artificial

Inteligência Artificial Encontra Eficiência: Um Novo Chip Reduz o Uso de Energia do LLM em 50%

mm
Securities.io maintains rigorous editorial standards and may receive compensation from reviewed links. We are not a registered investment adviser and this is not investment advice. Please view our affiliate disclosure.
A glowing futuristic AI chip

A atual onda de inteligência artificial (IA) está levando a um aumento nos centros de dados, o que está impulsionando uma grande demanda por energia para executar e resfriar os servidores dentro deles.

Embora haja mais de 8.000 centros de dados em todo o mundo, a maioria dos quais está nos EUA, esse número aumentará substancialmente nos próximos anos.

De acordo com a estimativa do Boston Consulting Group, a demanda por centros de dados aumentará 15% a 20% a cada ano até 2030. Neste ponto, a empresa espera que eles representem 16% do consumo total de energia nos EUA, em comparação com apenas 2,5% antes do lançamento do ChatGPT da OpenAI em 2022.

Enquanto isso, o relatório especial de Energia e IA da Agência Internacional de Energia (IEA) lançado este ano, espera que a demanda por eletricidade dos centros de dados em todo o mundo pelo menos duplique até o final desta década para cerca de 945 TWh. Isso é quase equivalente ao que o Japão consome hoje.

A organização intergovernamental autônoma com sede em Paris relata que a IA é o maior motor por trás desse aumento, com a demanda de eletricidade dos centros de dados otimizados para IA projetada para quadruplicar até 2030.

Nos EUA, especificamente, o consumo de energia dos centros de dados já está a caminho de responder por cerca da metade do crescimento da demanda de eletricidade entre agora e 2030. Impulsionado pelo uso de IA, a economia dos EUA, de acordo com o relatório, estará consumindo mais eletricidade para processar dados naquele momento do que para fabricar todos os bens intensivos em energia combinados.

Essa fome insaciável de energia apresenta um grande problema no avanço e adoção da IA. No entanto, a linha de prata é o número crescente de pesquisadores e empresas que trabalham para reduzir o uso de energia da IA e torná-la mais eficiente em termos de energia.

O que é interessante sobre esses esforços é que muitos deles utilizam IA para resolver seus próprios desafios de energia.

Apenas este mês, uma equipe de pesquisadores demonstrou um novo chip que usa IA para reduzir a pegada de energia dos grandes modelos de linguagem (LLM) em 50%, marcando um grande avanço para tornar os LLM mais rentáveis e sustentáveis para executar.

Novo Chip Utiliza IA para Reduzir o Consumo de Energia do LLM

New Chip Leverages AI

Pesquisadores da Faculdade de Engenharia da Universidade Estadual do Oregon desenvolveram o novo chip de IA eficiente para resolver o grande problema de consumo de eletricidade das aplicações de IA LLM, como o GPT-4 da OpenAI e o Gemini do Google.

Um tipo de modelo de aprendizado de máquina (ML), um grande modelo de linguagem (LLM) é pré-treinado em grandes quantidades de dados para realizar tarefas de processamento de linguagem natural (NLP) como geração de texto, resumo, simplificação, raciocínio de texto, tradução de idiomas e muito mais.

Os chatbots mais populares e amplamente utilizados hoje incluem o GPT-4o, o3 e o1 da OpenAI, o Gemini e o Gemma do Google, o Llama da Meta, o R1 e o V3 da DeepSeek, o Claude da Anthropic, o Nova da Amazon, o Phi da Microsoft e o Grok da xAI.

Ao longo dos últimos anos, os LLM transformaram completamente o campo da IA, permitindo que as máquinas entendam e gerem texto semelhante ao humano com maior precisão. No entanto, essa evolução dos LLM resultou em um aumento exponencial em seu tamanho.

O tamanho de um LLM, que é medido pelo número de parâmetros, é o principal motor de seu consumo de energia. Isso significa que quanto maior o modelo, maior a necessidade de poder computacional para treinamento e inferência.

Por exemplo, o ChatGPT-1 tinha apenas 120 milhões de parâmetros, que aumentaram para 175 bilhões de parâmetros com o GPT-3 e, em seguida, para cerca de 1,8 trilhão de parâmetros com o GPT-4.

Esse aumento imenso no tamanho e capacidade dos LLM significa que seu consumo de energia também está aumentando em uma escala sem precedentes. Além do tamanho do modelo, fatores como o tipo de hardware utilizado para treinar esses LLM, a duração do processo de treinamento, infraestrutura, ou seja, centros de dados, processamento de dados, otimização de modelo e eficiência de algoritmo influenciam o consumo de energia dos LLM.

Daí o novo chip dos pesquisadores da OSU. De acordo com Tejasvi Anand, professor associado de engenharia elétrica da OSU que também dirige o Laboratório de Circuitos e Sistemas de Sinal Misto da Universidade:

“O problema é que a energia necessária para transmitir um único bit não está sendo reduzida na mesma taxa em que a demanda de taxa de dados está aumentando. É isso que está fazendo com que os centros de dados usem tanto poder.”

Para superar esse problema, a equipe projetou e desenvolveu um novo chip que consome apenas metade da energia em comparação com projetos convencionais.

Anand e o estudante de doutorado Ramin Javad apresentaram essa nova tecnologia na Conferência IEEE de Circuitos Integrados Personalizados (CIC), que foi realizada em Boston no mês passado. A conferência, que hospeda fóruns, painéis, exposições e apresentações orais, é dedicada ao desenvolvimento de CI, que serve como o bloco de construção de sistemas eletrônicos modernos, fornecendo funcionalidade e poder de processamento em um pacote compacto e eficiente.

A tecnologia mais recente foi construída com o apoio do Centro de Conectividade Ubíqua (CUbiC), a Corporação de Pesquisa de Semicondutores (SRC) e a Agência de Projetos de Pesquisa Avançada de Defesa (DARPA). Também rendeu a Javadi o Prêmio de Melhor Artigo de Estudante na conferência.

Para o novo chip, os pesquisadores realmente aproveitaram os princípios de IA que, segundo Javadi, reduzem o uso de eletricidade para processamento de sinal.

Como ele explicou, os LLM enviam e recebem muitos dados sobre conexões de fio, que são links de comunicação baseados em cobre nos centros de dados. Todo esse processo requer energia significativa, então uma solução possível é desenvolver chips de comunicação de fio mais eficientes.

“Nós estamos usando esses princípios de IA no chip para recuperar os dados de uma maneira mais inteligente e eficiente, treinando o classificador no chip para reconhecer e corrigir os erros.”

– Javadi

Embora seja um grande desenvolvimento, isso é apenas a versão inicial do chip. Sua próxima iteração está atualmente em obras para melhorar ainda mais sua eficiência energética.

No geral, essa pesquisa em andamento mostra um grande potencial para ter implicações de longo alcance para o futuro da infraestrutura de IA e operações de centros de dados. Mas, claro, isso exigiria a implementação bem-sucedida da tecnologia em escala, o que nunca é uma tarefa fácil.

Clique aqui para aprender como a IA está revolucionando a engenharia de microchip.

Domando o Apetite de Energia da IA com Avanços em Camadas

Esse desenvolvimento de chip mais recente é apenas um de muitos projetos de pesquisa que abordam o problema de consumo de energia da IA. Então, vamos dar uma olhada rápida nas maneiras inovadoras como os pesquisadores abordaram isso.

Usando Luz para Eficiência de Energia da IA

No início deste ano, cientistas da USST desenvolveram1 um chip de IA microscópico, menor do que um grão de poeira ou um grão de sal, que usa luz para processar dados de cabos de fibra óptica. Isso promete cálculos mais rápidos com menos consumo de energia.

O chip manipula a luz para realizar cálculos instantaneamente, em vez de interpretar sinais de luz como os computadores tradicionais. Para isso, ele usa “rede neural difrativa óptica de todos os ópticos”, uma tecnologia que utiliza camadas de componentes impressas em 3D empilhadas. Embora seja um avanço, desafios como design específico de tarefa, sensibilidade a imperfeições e dificuldade de produção em grande escala precisam ser superados para que ele alcance “funcionalidades sem precedentes” em imagens endoscópicas, computação quântica e centros de dados.

Alguns meses antes, cientistas do MIT também usaram luz para realizar as operações-chave de uma rede neural em um chip, permitindo cálculos de IA ultra-rápidos (em meio nanossegundo) com 92% de precisão e grande eficiência energética.

“Este trabalho demonstra que o processamento – em sua essência, o mapeamento de entradas para saídas – pode ser compilado em novas arquiteturas de física linear e não linear que permitem uma lei de escala de computação versus esforço necessário fundamentalmente diferente.”

– Dirk Englund, autor sênior

Os cientistas desenvolveram o chip fotônico2, que é composto por módulos interconectados que formam uma rede neural óptica. Notavelmente, o uso de processos de fundição comerciais para sua fabricação significa que ele pode ser escalado e integrado à eletrônica. Além disso, os cientistas superaram o desafio da não linearidade na óptica, projetando unidades de função óptica não linear (NOFUs) que combinam eletrônica e óptica.

Clique aqui para aprender sobre o novo AI inspirado no cérebro que aprende em tempo real usando energia ultra-baixa.

Ferramenta de Software para Treinamento de IA e Sistema de Resfriamento para Centros de Dados

Cooling System for Data Centres

Pesquisadores da Universidade de Michigan, por outro lado, miraram no desperdício de energia criado no momento do treinamento de IA, mais especificamente, quando ele é dividido entre GPUs, uma necessidade para processar grandes conjuntos de dados, de forma desigual.

Então, eles desenvolveram uma ferramenta de software chamada Perseus que identifica sub-tarefas que levarão mais tempo para serem concluídas e, em seguida, reduz a velocidade dos processadores que não estão no “caminho crítico” para permitir que todos eles completem suas tarefas simultaneamente, removendo o uso de energia desnecessário.

Essa ferramenta de código aberto está disponível como parte do Zeus, uma ferramenta para medir e otimizar o consumo de energia da IA.

Enquanto isso, pesquisadores da Universidade de Missouri se voltaram para desenvolver um sistema de resfriamento de próxima geração para ajudar os centros de dados a se tornarem mais eficientes em termos de energia. Eles também estão fabricando um sistema de resfriamento para conexão e desconexão fáceis dentro das prateleiras de servidores.

“Resfriamento e fabricação de chips andam de mãos dadas. Sem resfriamento adequado, os componentes superaquecem e falham. Centros de dados eficientes em termos de energia serão fundamentais para o futuro da computação de IA.”

Chanwoo Park, professor de engenharia mecânica e aerospacial no Colégio de Engenharia da Mizzou

Com o apoio de US$ 1,5 milhão em financiamento da iniciativa COOLERCHIPS do DOE, a equipe desenvolveu um sistema de resfriamento de duas fases que dissipa o calor dos chips de servidor por meio de mudança de fase. Não apenas ele pode funcionar passivamente sem usar energia quando necessário para menos resfriamento, mas mesmo quando no modo ativo, o sistema usa uma quantidade muito pequena.

Hardware CRAM Pode Reduzir o Uso de Energia da IA em 1000x

No verão passado, engenheiros da Universidade de Minnesota Twin Cities desenvolveram um dispositivo de hardware avançado3 que pode reduzir o consumo de energia da IA em cerca de 1.000 vezes.

Esse novo modelo é chamado de memória de acesso aleatório computacional (CRAM), e aqui, os dados nunca deixam a memória; em vez disso, são processados completamente dentro da matriz de memória, como tal, eliminando a necessidade de transferências de dados intensivas em energia e lentas.

Duas décadas em desenvolvimento, este estudo faz parte dos esforços da equipe para construir sobre a pesquisa patenteada do autor sênior Jian-Ping Wang sobre dispositivos de Junção de Tunelamento Magnético (MTJs). Esses dispositivos nanoestruturados são usados para melhorar sensores, discos rígidos e outros sistemas de microeletrônica, como a Memória de Acesso Aleatório Magnética (MRAM).

“Como um substrato de computação baseado em memória digital extremamente eficiente, o CRAM é muito flexível, pois o cálculo pode ser realizado em qualquer local da matriz de memória”, observou o coautor Ulya Karpuzcu, professor associado do Departamento de Engenharia Elétrica e de Computação. Além disso, ele pode ser reconfigurado para atender melhor às necessidades de desempenho de diferentes algoritmos.

IA Inspirada no Cérebro: Reduzindo o Uso de Energia ao Imitar a Eficiência Humana

Então, como vimos, os pesquisadores estão olhando para diferentes aspectos da IA para lidar com seus problemas de energia. Interessantemente, eles também estão se voltando para o cérebro humano em busca de inspiração. Isso faz sentido, afinal, a IA é a simulação de processos de inteligência humana por máquinas, embora ainda esteja longe do pensamento e raciocínio humanos devido à sua capacidade de generalizar variações ser “significativamente mais fraca do que a cognição humana”.

A pesquisa de redução de energia inspirada no cérebro inclui o trabalho do professor associado Chang Xu no Centro de IA da Universidade, que observou que os LLM que utilizam os recursos em sua capacidade total, mesmo para tarefas simples, não é a maneira certa de fazer as coisas. Ele explicou:

“Quando você pensa em um cérebro humano saudável – ele não dispara todos os neurônios ou usa todo o seu poder cerebral de uma vez. Ele opera com uma eficiência de energia incrivelmente alta, apenas 20 watts de energia, apesar de ter cerca de 100 bilhões de neurônios, que ele usa seletivamente de diferentes hemisférios do cérebro para realizar tarefas ou pensamentos diferentes.”

Como tal, eles estão desenvolvendo algoritmos que contornam os cálculos redundantes não necessários e não entram em alta rotação automaticamente.

Em outras instâncias, a pesquisa foi inspirada na neuromodulação do cérebro e criou um algoritmo chamado de sistema de armazenamento para reduzir a energia em 37% sem degradação de precisão, a função de autorreparo de células cerebrais chamadas astrocitos para dispositivos de hardware, e obteve um tipo de computação neuromórfica (inspirada no cérebro) de memristores para trabalhar juntos em vários subgrupos de redes neurais.

Investindo em Inteligência Artificial

Uma empresa de semicondutores global, AMD (AMD ) é conhecida por suas tecnologias de computação de alto desempenho, gráficos e visualização. Embora esteja em competição direta com a IA da NVIDIA, está rapidamente ganhando terreno nos mercados de centros de dados e aceleradores de IA. Sua série MI300 é específica para cargas de trabalho de IA de última geração e aplicações de HPC.

Sua presença líder no espaço de CPU de centro de dados, foco forte em P&D, crescimento de receita, clientela e aquisições tornam a AMD um jogador forte no setor.

Dispositivos Microeletrônicos Avançados (AMD )

Em 2022, a AMD fez um acordo de aquisição de chips de registro de US$ 50 bilhões com a Xilinx para se tornar a líder em computação de alto desempenho e adaptável da indústria. E mais recentemente, concluiu a aquisição da ZT Systems para atender à oportunidade de acelerador de centro de dados de IA de US$ 500 bilhões em 2028.

O desempenho de mercado da AMD também está se recuperando este ano após ser atingido pela turbulência de tarifas. Até a data de escrita, as ações da AMD estão sendo negociadas a US$ 120, com uma queda de 6,9% no ano, mas apenas cerca de 47% abaixo de seu pico em março de 2024. Com isso, seu valor de mercado é de US$ 182,34 bilhões, enquanto tem um EPS (TTM) de 1,36 e um P/E (TTM) de 82,44.

Quanto às finanças da empresa, a AMD relatou um aumento de 36% no ano para receita de US$ 7,4 bilhões no primeiro trimestre de 2025, o que a CEO, Dra. Lisa Su, chamou de “um começo excepcional” para o ano, “apesar do ambiente macro e regulatório dinâmico”. Esse crescimento foi impulsionado por “o aumento da expansão de centros de dados e IA”, acrescentou.

Durante esse período, a receita operacional da AMD foi de US$ 806 milhões, o lucro líquido foi de US$ 709 milhões e o lucro por ação diluída foi de US$ 0,44. Para o segundo trimestre de 2025, a empresa está projetando cerca de US$ 7,4 bilhões em receita.

Alguns desenvolvimentos importantes feitos pela empresa incluem a expansão de parcerias estratégicas com Meta Platforms, Inc. (META ) (Llama), Alphabet Inc. (GOOGL ) (Gemma), Oracle Corporation (ORCL ), Core42, Dell Technologies (DELL ), e outros. A AMD, juntamente com a Nokia, Cisco Systems, Inc. (CSCO ), e Jio, também anunciou uma nova Plataforma de Telecomunicações Aberta de IA para oferecer soluções impulsionadas por IA para melhorar a eficiência, segurança e capacidades.

Agora, esta semana, a AMD e a Nvidia se associaram à Humain, uma subsidiária de IA do Fundo de Investimento Público da Arábia Saudita, para fornecer semicondutores para um grande projeto de centro de dados que deve ter uma capacidade de 500 MW.

Clique aqui para uma lista das principais empresas de computação não de silício.

Últimas Tendências e Desenvolvimentos da Advanced Micro Devices (AMD)

Conclusão

Nos últimos anos, a mania de IA viu um crescimento explosivo, e por boas razões. Essa tecnologia, afinal, tem um grande potencial para transformar uma ampla gama de indústrias, desde saúde, manufatura e ciência de materiais até finanças, entretenimento, educação, varejo e segurança cibernética.

No entanto, o avanço tecnológico, a adoção crescente e a expansão subsequente desses LLM resultaram em uma demanda substancial por energia, o que contribui para as emissões de gases de efeito estufa (GEE) e as mudanças climáticas, aumenta o custo econômico e impacta a sustentabilidade da tecnologia.

Isso apresenta um grande desafio para a IA. Se quisermos realizar plenamente seu verdadeiro potencial em termos de redução de custos, aumento de produtividade e melhoria da tomada de decisões em escala, os modelos devem alcançar rentabilidade e sustentabilidade.

A boa notícia, no entanto, é que pesquisadores em todo o mundo já estão trabalhando arduamente para tornar a IA eficiente em termos de energia, como evidenciado pelo chip de IA alimentado por IA da OSU, o que sugere uma forte possibilidade de alinhar inovação com sustentabilidade.

Claro, as tecnologias propostas precisam superar seu maior obstáculo para alcançar um impacto no mundo real, a escalabilidade. Ainda assim, uma coisa é clara: o futuro da IA mais verde é viável, e está a caminho!

Clique aqui para aprender tudo sobre investir em inteligência artificial.

Estudos Referenciados:

1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X., & Zhang, C. (2025). Transporte de imagem óptica através de uma fibra multimodo usando uma rede neural difrativa miniaturizada no facet distal. Nature Photonics, 19, 486–493. https://doi.org/10.1038/s41566-025-01621-4
2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, M. J., Lukin, M. D., & Lončar, M. (2024). Rede neural profunda fotônica de um único chip com treinamento apenas para frente. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z
3. Lv, Y., Zink, B. R., Bloom, R. P., Roy, A., Vaddi, K., Shang, L., & Manipatruni, S. (2024). Demonstração experimental da memória de acesso aleatório computacional baseada em junção de tunelamento magnético. npj Computação não convencional, 1, 3. https://doi.org/10.1038/s44335-024-00003-3

Gaurav começou a negociar criptomoedas em 2017 e desde então se apaixonou pelo espaço de criptomoedas. Seu interesse por tudo relacionado a criptomoedas o transformou em um escritor especializado em criptomoedas e blockchain. Em breve, ele se viu trabalhando com empresas de criptomoedas e veículos de comunicação. Ele também é um grande fã do Batman.

Advertiser Disclosure: Securities.io is committed to rigorous editorial standards to provide our readers with accurate reviews and ratings. We may receive compensation when you click on links to products we reviewed. ESMA: CFDs are complex instruments and come with a high risk of losing money rapidly due to leverage. Between 74-89% of retail investor accounts lose money when trading CFDs. You should consider whether you understand how CFDs work and whether you can afford to take the high risk of losing your money. Investment advice disclaimer: The information contained on this website is provided for educational purposes, and does not constitute investment advice. Trading Risk Disclaimer: There is a very high degree of risk involved in trading securities. Trading in any type of financial product including forex, CFDs, stocks, and cryptocurrencies. This risk is higher with Cryptocurrencies due to markets being decentralized and non-regulated. You should be aware that you may lose a significant portion of your portfolio. Securities.io is not a registered broker, analyst, or investment advisor.