talon L'IA rencontre l'efficacité : une nouvelle puce réduit la consommation d'énergie des LLM de 50 % – Securities.io
Suivez nous sur

Intelligence Artificielle

L'IA rencontre l'efficacité : une nouvelle puce réduit la consommation d'énergie du LLM de 50 %

mm

Securities.io applique des normes éditoriales rigoureuses et peut percevoir une rémunération pour les liens vérifiés. Nous ne sommes pas un conseiller en investissement agréé et ceci ne constitue pas un conseil en investissement. Veuillez consulter notre divulgation de l'affiliation.

Une puce d'IA futuriste et brillante

L’essor actuel de l’intelligence artificielle (IA) entraîne une augmentation du nombre de centres de données, ce qui entraîne une demande immense d’énergie pour faire fonctionner et refroidir les serveurs qu’ils contiennent.

Bien qu’il existe plus de 8,000 XNUMX centres de données dans le monde, dont la plupart se trouvent aux États-Unis, ce nombre augmentera considérablement dans les années à venir. 

Selon les estimations du Boston Consulting Group, la demande de centres de données augmentera de 15 à 20 % chaque année jusqu'en 2030. À ce stade, l'entreprise s'attend à ce qu'ils représentent 16 % de la consommation totale d'énergie aux États-Unis, contre seulement 2.5 % avant la sortie de ChatGPT d'OpenAI en 2022.

Pendant ce temps, le rapport spécial sur l'énergie et l'IA Selon une étude de l'Agence internationale de l'énergie (AIE) publiée cette année, la demande d'électricité des centres de données du monde entier devrait au moins doubler d'ici la fin de la décennie, pour atteindre environ 945 TWh. Ce chiffre est quasiment équivalent à la consommation actuelle du Japon. 

L'organisation intergouvernementale autonome basée à Paris indique que l'IA est le principal moteur de cette augmentation, la demande d'électricité des centres de données optimisés par l'IA devant plus que quadrupler d'ici 2030.

Aux États-Unis en particulier, la consommation d’énergie des centres de données devrait déjà représenter environ la moitié de la croissance de la demande d’électricité d’ici 2030. Entraînée par l’utilisation de l’IA, l’économie américaine, selon le rapport, consommera alors plus d’électricité pour traiter les données que pour fabriquer tous les biens à forte intensité énergétique réunis.

Cette soif insatiable d'énergie constitue un obstacle majeur au développement et à l'adoption de l'IA. Cependant, le point positif réside dans le nombre croissant de chercheurs et d'entreprises qui s'efforcent de réduire la consommation d'énergie de l'IA et de la rendre plus économe en énergie.

Ce qui est intéressant dans ces efforts, c’est que beaucoup d’entre eux utilisent l’IA pour répondre à leurs propres défis énergétiques.

Ce mois-ci, une équipe de chercheurs a présenté une nouvelle puce qui utilise l’IA pour réduire de 50 % l’empreinte énergétique des grands modèles linguistiques (LLM), marquant ainsi une avancée majeure pour rendre les LLM rentables et plus durables à exploiter.

Une nouvelle puce exploite l'IA pour réduire la consommation d'énergie du LLM

Une nouvelle puce exploite l'IA

Des chercheurs de l'Oregon State University College of Engineering ont développé une nouvelle puce d'IA efficace pour résoudre le problème de consommation massive d'électricité des applications d'IA LLM comme GPT-4 d'OpenAI et Gemini de Google.

Un type de modèle d'apprentissage automatique (ML), un grand modèle de langage (LLM) est pré-entraîné sur de grandes quantités de données pour effectuer des tâches de traitement du langage naturel (NLP) telles que la génération de texte, le résumé, la simplification, le raisonnement textuel, la traduction de langue, etc.

Les chatbots les plus populaires et les plus utilisés aujourd'hui incluent GPT-4o, o3 et o1 d'OpenAI, Gemini et Gemma de Google, Llama de Meta, R1 et V3 de DeepSeek, Claude d'Anthropic, Nova d'Amazon, Phi de Microsoft et Grok de xAI.

Ces dernières années, les LLM ont profondément transformé le domaine de l'IA en permettant aux machines de comprendre et de générer des textes de type humain avec une plus grande précision. Cependant, cette évolution a entraîné une augmentation exponentielle de leur taille.  

La taille d'un LLM, mesurée par le nombre de paramètres, est le principal facteur de sa consommation énergétique. Cela signifie que plus le modèle est grand, plus il nécessite de puissance de calcul pour l'entraînement et l'inférence. 

Par exemple, ChatGPT-1 comptait un peu moins de 120 millions de paramètres, qui sont passés à 175 milliards de paramètres avec GPT-3, puis à environ 1.8 billion de paramètres avec GPT-4.

Cette augmentation considérable de la taille et des capacités des LLM entraîne une augmentation sans précédent de leur consommation énergétique. Outre la taille du modèle, des facteurs tels que le type de matériel utilisé pour entraîner ces LLM, la durée du processus d'entraînement, l'infrastructure (centres de données), le traitement des données, l'optimisation du modèle et l'efficacité des algorithmes influencent la consommation énergétique des LLM.

D'où la nouvelle puce des chercheurs de l'OSU. Selon Tejasvi Anand, professeur associé de génie électrique à l'OSU et directeur du laboratoire de circuits et systèmes à signaux mixtes de l'université :

Le problème est que l'énergie nécessaire à la transmission d'un seul bit ne diminue pas au même rythme que la demande de débit de données. C'est ce qui explique la consommation énergétique élevée des centres de données.

Pour surmonter ce problème, l’équipe a conçu et développé une nouvelle puce qui consomme seulement la moitié de l’énergie par rapport aux conceptions conventionnelles.

Anand et le doctorant Ramin Javad ont présenté cette nouvelle technologie lors de la conférence IEEE Custom Integrated Circuits (CIC), qui s'est tenue à Boston le mois dernier. Cette conférence, qui propose des forums, des panels, des expositions et des présentations orales, est consacrée au développement des circuits intégrés, qui constituent la base des systèmes électroniques modernes en offrant fonctionnalités et puissance de traitement dans un boîtier compact et performant.

Cette technologie de pointe a été développée avec le soutien du Centre pour la connectivité ubiquitaire (CUbiC), de la Semiconductor Research Corporation (SRC) et de la Defense Advanced Research Projects Agency (DARPA). Elle a également valu à Javadi le prix du meilleur article étudiant lors de la conférence.

Pour la nouvelle puce, les chercheurs ont en fait exploité les principes de l’IA qui, a noté Javadi, réduisent la consommation d’électricité pour le traitement du signal.

Comme il l'a expliqué, les LLM envoient et reçoivent de grandes quantités de données via des connexions filaires, c'est-à-dire des liaisons de communication en cuivre dans les centres de données. Ce processus consomme beaucoup d'énergie ; une solution potentielle consiste donc à développer des puces de communication filaires plus performantes.

Javadi a également noté que lorsqu'elles sont envoyées à haut débit, les données sont corrompues au niveau du récepteur et doivent donc être nettoyées. À cette fin, la plupart des systèmes de communication filaires existants utilisent un égaliseur, très gourmand en énergie.

« Nous utilisons ces principes d'IA sur puce pour récupérer les données de manière plus intelligente et plus efficace en entraînant le classificateur sur puce à reconnaître et à corriger les erreurs. »

– Javadi

Bien qu'il s'agisse d'une avancée majeure, il ne s'agit que de la version initiale de la puce. Une nouvelle version est actuellement en cours de développement pour améliorer encore son efficacité énergétique.

Globalement, ces recherches en cours présentent un fort potentiel et des implications profondes pour l'avenir des infrastructures d'IA et des opérations des centres de données. Mais cela nécessiterait bien sûr une mise en œuvre réussie de la technologie à grande échelle, ce qui n'est jamais une tâche facile.

Cliquez ici pour découvrir comment l’IA bouleverse l’ingénierie des micropuces.

Maîtriser l'appétit énergétique de l'IA grâce à des avancées multidimensionnelles

Ce dernier développement de puce n'est qu'un des nombreux projets de recherche visant à résoudre le problème de consommation énergétique de l'IA. Examinons donc brièvement les solutions innovantes mises en œuvre par les chercheurs pour y remédier.

Utilisation de la lumière pour l'efficacité énergétique de l'IA 

Plus tôt cette année, les scientifiques de l'USST en réponse1 Une puce d'IA microscopique, plus petite qu'un grain de poussière ou de sel, qui utilise la lumière pour traiter les données des câbles à fibre optique. Cela promet des calculs plus rapides avec une consommation d'énergie réduite.

La puce manipule la lumière pour effectuer des calculs instantanés, au lieu d'interpréter les signaux lumineux comme le font les ordinateurs traditionnels. Pour ce faire, elle utilise un « réseau neuronal profond diffractif tout optique », une technologie qui utilise des couches de composants imprimés en 3D et superposés. Bien que révolutionnaire, elle doit surmonter des défis tels que la conception spécifique à chaque tâche, la sensibilité aux imperfections et la difficulté de production à grande échelle pour atteindre des « fonctionnalités inédites » en imagerie endoscopique, en informatique quantique et dans les centres de données.

Quelques mois auparavant, les scientifiques du MIT avaient également utilisé la lumière pour effectuer les opérations clés d'un réseau neuronal sur une puce, permettant des calculs d'IA ultra-rapides (en une demi-nanoseconde) avec une précision de 92 % et une efficacité énergétique massive.

« Ce travail démontre que l'informatique — dans son essence, la mise en correspondance des entrées et des sorties — peut être compilée sur de nouvelles architectures de physique linéaire et non linéaire qui permettent une loi d'échelle fondamentalement différente du calcul par rapport à l'effort nécessaire. »

– Auteur principal Dirk Englund

Les scientifiques développé la puce photonique2, composé de modules interconnectés formant un réseau neuronal optique. L'utilisation de procédés de fonderie commerciaux pour sa fabrication permet notamment sa mise à l'échelle et son intégration à l'électronique. Par ailleurs, les scientifiques ont surmonté le défi de la non-linéarité en optique en concevant des unités fonctionnelles optiques non linéaires (NOFU) combinant électronique et optique.

Cliquez ici pour en savoir plus sur la nouvelle IA inspirée du cerveau qui apprend en temps réel en utilisant une consommation d’énergie ultra-faible.

Un outil logiciel pour la formation de l'IA et un système de refroidissement pour les centres de données

Système de refroidissement pour centres de données

Les chercheurs de l'Université du Michigan, quant à eux, ciblé le gaspillage d'énergie créé au moment de la formation de l'IA, plus précisément, lorsqu'elle est divisée entre les GPU, une nécessité pour traiter d'énormes ensembles de données, de manière inégale. 

Ils ont donc développé un outil logiciel appelé Perseus qui identifie les sous-tâches qui prendront le plus de temps à réaliser et réduit ensuite la vitesse des processeurs qui ne sont pas sur ce « chemin critique » pour leur permettre à tous de réaliser leurs tâches simultanément, supprimant ainsi toute consommation d'énergie inutile.

Cet outil open source est disponible dans le cadre de Zeus, un outil de mesure et d'optimisation de la consommation énergétique de l'IA.

Pendant ce temps, des chercheurs de l’Université du Missouri se sont tournés vers concevoir un système de refroidissement de nouvelle génération pour aider les centres de données à améliorer leur efficacité énergétique. Ils fabriquent également un système de refroidissement facilitant la connexion et la déconnexion des racks de serveurs.

Le refroidissement et la fabrication des puces vont de pair. Sans un refroidissement adéquat, les composants surchauffent et tombent en panne. Les centres de données économes en énergie seront essentiels à l'avenir de l'IA.

- Chanwoo Park, professeur de génie mécanique et aérospatial au Mizzou College of Engineering

Grâce à un financement de 1.5 million de dollars provenant de l'initiative COOLERCHIPS du DOE, l'équipe a développé un système de refroidissement biphasé qui dissipe la chaleur des puces de serveur par changement de phase. Non seulement il peut fonctionner passivement sans consommer d'énergie lorsque le refroidissement est réduit, mais même en mode actif, il en consomme très peu.

Le matériel CRAM pourrait diviser par 1000 XNUMX la consommation d'énergie de l'IA

L'été dernier, des ingénieurs de l'Université du Minnesota Twin Cities développé un périphérique matériel avancé3 cela pourrait réduire la consommation d’énergie de l’IA d’environ 1,000 XNUMX fois.

Ce nouveau modèle est appelé mémoire vive computationnelle (CRAM), et ici, les données ne quittent jamais la mémoire ; au contraire, elles sont traitées entièrement au sein de la matrice mémoire, éliminant ainsi le besoin de transferts de données lents et gourmands en énergie.

Après deux décennies de recherche, cette étude s'inscrit dans le cadre des efforts déployés par l'équipe pour exploiter les recherches brevetées de l'auteur principal, Jian-Ping Wang, sur les dispositifs à jonctions tunnel magnétiques (MTJ). Ces dispositifs nanostructurés sont utilisés pour améliorer les capteurs, les disques durs et d'autres systèmes microélectroniques comme la mémoire vive magnétique (MRAM).

« En tant que substrat de calcul numérique en mémoire extrêmement économe en énergie, la CRAM est très flexible : les calculs peuvent être effectués n'importe où dans la matrice mémoire », a souligné Ulya Karpuzcu, co-auteure et professeure agrégée au Département de génie électrique et informatique. De plus, elle peut être reconfigurée pour s'adapter au mieux aux besoins de performance des différents algorithmes.

IA inspirée du cerveau : réduire la consommation d'énergie en imitant l'efficacité humaine

Comme nous l'avons vu, les chercheurs étudient différents aspects de l'IA pour gérer ses enjeux énergétiques. Il est intéressant de noter qu'ils s'inspirent également du cerveau humain. C'est logique, après tout, l'IA est la simulation des processus d'intelligence humaine par des machines, même si elle est loin de la pensée et du raisonnement humains en raison de sa capacité à généraliser à travers les variations, qui est « considérablement plus faible que la cognition humaine ».

Les recherches sur la réduction de l'énergie par le cerveau s'appuient sur les travaux du professeur associé Chang Xu, du Centre d'IA de Sydney de l'Université, qui a souligné que les masters de maîtrise utilisant les ressources à pleine capacité, même pour des tâches simples, ne sont pas la bonne approche. Il a expliqué :

« Un cerveau humain en bonne santé ne sollicite pas tous ses neurones et n'utilise pas toute sa puissance cérébrale simultanément. Il fonctionne avec une efficacité énergétique incroyable : seulement 20 watts de puissance, malgré ses quelque 100 milliards de neurones, qu'il utilise sélectivement dans différents hémisphères cérébraux pour effectuer différentes tâches ou réflexions. » 

Ils développent ainsi des algorithmes qui contournent les calculs redondants inutiles et ne passent pas automatiquement à la vitesse supérieure.

Dans d’autres cas, la recherche s’est inspirée de la neuromodulation du cerveau et a créé un algorithme appelé «système de rangement« pour réduire l'énergie de 37 % sans aucune dégradation de la précision, la fonction d'auto-réparation de la cellule cérébrale appelée astrocytes pour dispositifs matériels, et a obtenu une forme de calcul neuromorphique (inspirée du cerveau) (memristors) pour travailler ensemble dans plusieurs sous-groupes de réseaux neuronaux.

Investir dans l'intelligence artificielle

Une société mondiale de semi-conducteurs, AMD (AMD + 0.92%) est réputé pour ses technologies de calcul haute performance, de graphisme et de visualisation. Bien qu'en concurrence directe avec le chouchou de l'IA, NVIDIA (NVDA -0.53%), elle gagne rapidement du terrain sur les marchés des centres de données et des accélérateurs d'IA. Sa série MI300 cible spécifiquement les charges de travail d'IA de nouvelle génération et les applications HPC.

Sa présence de premier plan dans le domaine des processeurs de centres de données, sa forte concentration sur la R&D, sa croissance des revenus, sa clientèle et ses acquisitions font d'AMD un acteur fort du secteur.

Advanced Micro Devices (AMD + 0.92%)

En 2022, AMD a conclu un accord record dans le secteur des puces électroniques, évalué à 50 milliards de dollars, avec l'acquisition de Xilinx, devenant ainsi le leader du secteur en matière de calcul haute performance et adaptatif. Plus récemment, l'entreprise a finalisé l'acquisition de ZT Systems pour saisir l'opportunité d'un accélérateur d'IA pour centres de données d'une valeur de 500 milliards de dollars en 2028.

La performance boursière d'AMD se redresse également cette année après avoir été impactée par les turbulences liées aux droits de douane. Au moment de la rédaction de cet article, l'action AMD s'échange à 120 $, en baisse de 6.9 ​​% depuis le début de l'année, mais à seulement 47 % de son pic de mars 2024. Sa capitalisation boursière s'élève ainsi à 182.34 milliards de dollars, avec un BPA (sur les trois derniers mois) de 1.36 et un PER (sur les trois derniers mois) de 82.44.

Concernant les finances de l'entreprise, AMD a annoncé une hausse de 36 % de son chiffre d'affaires en glissement annuel, atteignant 7.4 milliards de dollars au premier trimestre 1. La PDG, Lisa Su, a qualifié ce chiffre d'« excellent début d'année », « malgré un environnement macroéconomique et réglementaire dynamique ». Cette croissance a été portée par « l'expansion des centres de données et la dynamique de l'IA », a-t-elle ajouté.

Au cours de cette période, le résultat d'exploitation d'AMD s'est élevé à 806 millions de dollars, le résultat net à 709 millions de dollars et le bénéfice dilué par action à 0.44 dollar. Pour le deuxième trimestre 2, la société prévoit un chiffre d'affaires d'environ 2025 milliards de dollars. 

Parmi les développements clés réalisés par l’entreprise, on peut citer l’expansion des partenariats stratégiques avec Meta Plateformes Inc. (META -2.65%) (Lama), Alphabet Inc. (GOOGL + 1.15%) (Gemme), Oracle Corporation (ORCL + 1.52%), Core42, Dell Technologies (DELL -0.06%), et d'autres. AMD, avec Nokia, Cisco Systems, Inc. (CSCO + 0.27%)et Jio ont également annoncé une nouvelle plate-forme Open Telecom AI pour offrir des solutions basées sur l'IA afin d'améliorer l'efficacité, la sécurité et les capacités.

Cette semaine, AMD et Nvidia se sont associés à Humain, une filiale du Fonds d'investissement public d'Arabie saoudite axée sur l'IA, pour fournir des semi-conducteurs pour un projet de centre de données à grande échelle qui devrait avoir une capacité de 500 MW.

Cliquez ici pour obtenir une liste des principales sociétés informatiques non-silicium.

Dernières tendances et développements en matière de micro-dispositifs avancés (AMD)

Conclusion

Ces dernières années, l'engouement pour l'IA a connu une croissance fulgurante, et pour cause. Après tout, cette technologie recèle un potentiel considérable pour transformer un large éventail de secteurs, de la santé à l'industrie manufacturière, en passant par la science des matériaux, la finance, le divertissement, l'éducation, la vente au détail et la cybersécurité.

Cependant, les progrès technologiques, l’adoption croissante et l’expansion ultérieure de ces LLM ont entraîné une demande substantielle d’énergie, ce qui contribue aux émissions de gaz à effet de serre (GES) et au changement climatique, augmente les coûts économiques et a un impact sur la durabilité de la technologie.

Cela représente un défi majeur pour l'IA. Si nous voulons exploiter pleinement son potentiel en termes de réduction des coûts, d'augmentation de la productivité et d'amélioration de la prise de décision à grande échelle, les modèles doivent être rentables et durables.

La bonne nouvelle, cependant, est que les chercheurs du monde entier travaillent déjà dur pour rendre l’IA économe en énergie, comme le montre la puce alimentée par l’IA de l’Oregon State, ce qui suggère une forte possibilité d’aligner l’innovation sur la durabilité.

Bien sûr, les technologies proposées doivent surmonter leur plus grand obstacle pour atteindre un impact concret : l'évolutivité. Néanmoins, une chose est sûre : un avenir plus vert pour l'IA est réalisable, et il arrive !

Cliquez ici pour tout savoir sur l’investissement dans l’intelligence artificielle.

Études référencées :

1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X., et Zhang, C. (2025). Transport d'images tout optique à travers une fibre multimode utilisant un réseau neuronal diffractif miniaturisé sur la facette distale. Nature Photonics, 19, 486–493. https://doi.org/10.1038/s41566-025-01621-4
2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, MJ, Lukin, MD, & Lončar, M. (2024). Réseau neuronal profond photonique monopuce avec entraînement direct uniquement. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z
3. Lv, Y., Zink, BR, Bloom, RP, Roy, A., Vaddi, K., Shang, L., et Manipatruni, S. (2024). Démonstration expérimentale d'une mémoire vive computationnelle basée sur une jonction tunnel magnétique. npj Unconventional Computing, 1, 3. https://doi.org/10.1038/s44335-024-00003-3

Gaurav a commencé à trader des crypto-monnaies en 2017 et est depuis tombé amoureux de l’espace crypto. Son intérêt pour tout ce qui concerne la crypto a fait de lui un écrivain spécialisé dans les crypto-monnaies et la blockchain. Bientôt, il s’est retrouvé à travailler avec des sociétés de cryptographie et des médias. Il est également un grand fan de Batman.

Annonceur Divulgation: Securities.io s'engage à respecter des normes éditoriales rigoureuses pour fournir à nos lecteurs des critiques et des notes précises. Nous pouvons recevoir une compensation lorsque vous cliquez sur des liens vers des produits que nous avons examinés.

AMF: Les CFD sont des instruments complexes et comportent un risque élevé de perte rapide d'argent en raison de l'effet de levier. Entre 74 et 89 % des comptes d’investisseurs particuliers perdent de l’argent lors de la négociation de CFD. Vous devez vous demander si vous comprenez le fonctionnement des CFD et si vous pouvez vous permettre de prendre le risque élevé de perdre votre argent.

Avis de non-responsabilité relatif aux conseils en investissement: Les informations contenues sur ce site Internet sont fournies à des fins pédagogiques et ne constituent pas un conseil en investissement.

Clause de non-responsabilité relative aux risques de négociation: Le trading de titres comporte un degré de risque très élevé. Négociez tout type de produits financiers, y compris le forex, les CFD, les actions et les crypto-monnaies.

Ce risque est plus élevé avec les crypto-monnaies en raison du fait que les marchés sont décentralisés et non réglementés. Vous devez être conscient que vous risquez de perdre une partie importante de votre portefeuille.

Securities.io n'est pas un courtier enregistré, un analyste ou un conseiller en investissement.