talon Les avancées inspirées de NVIDIA réduisent de 100 fois les besoins en puissance d'entraînement de l'IA – Securities.io
Suivez nous sur

Intelligence Artificielle

Les avancées inspirées de NVIDIA réduisent de 100 fois les besoins en puissance d'entraînement de l'IA

mm

Securities.io applique des normes éditoriales rigoureuses et peut percevoir une rémunération pour les liens vérifiés. Nous ne sommes pas un conseiller en investissement agréé et ceci ne constitue pas un conseil en investissement. Veuillez consulter notre divulgation de l'affiliation.

L'intelligence artificielle (IA) a conquis le monde entier, et aucun secteur n'est épargné par la magie de cette avancée technologique. Aujourd'hui, 77 % des appareils intègrent l'IA, alors que seulement un tiers des consommateurs pensent utiliser des plateformes d'IA. 

Un nombre croissant d'organisations adoptent également l'IA pour leur croissance : 9 entreprises sur 10 la soutiennent pour se doter d'un avantage concurrentiel. Cette utilisation devrait entraîner la suppression de 85 millions d'emplois, mais la création de 97 millions de nouveaux emplois.

Ces chiffres reflètent les estimations selon lesquelles le marché de l’IA contribuera à hauteur de 15.7 billions de dollars à l’économie mondiale d’ici 2030. La taille du marché de l’IA devrait également croître d’au moins 120 % d’une année sur l’autre.

Cependant, à mesure que l’adoption de l’IA se développe, la demande en énergie pour alimenter les centres de données, qui sont extrêmement énergivores, augmente également. Faire fonctionner et refroidir des milliers de serveurs 24 heures sur 24 nécessite des quantités considérables d'énergie. Actuellement, cette énergie est prélevée sur le réseau électrique, ce qui engendre des problèmes lors des pics de consommation et met le système à rude épreuve. Selon Chevron (CVX -0.18%) PDG Mike Wirth :

La croissance et la demande d'électricité peuvent peser sur un réseau déjà sous tension. Cela pourrait engendrer des coûts supplémentaires pour les consommateurs. Le gaz naturel contribuera à la croissance rapide de l'intelligence artificielle, qui répond à une demande insatiable d'électricité fiable.

En réponse à cette demande, Chevron a récemment annoncé qu’elle travaillerait avec GE (GE -0.13%) Vérone et Engine No. 1 vont produire de l'électricité pour l'IA en construisant des centrales électriques au gaz naturel directement connectées aux centres de données.

Actuellement, les centres de données représentent environ 1 % de la consommation mondiale d’électricité, selon un rapport de l’Agence internationale de l’énergie (AIE). 

Mais ce n’est qu’un début, car les entreprises dépensent des milliards de dollars pour construire encore plus de centres de données. 

Microsoft (MSFT -0.11%) prévoit d'investir 80 milliards de dollars dans des centres de données dotés d'IA, dont la moitié aux États-Unis. Blackstone (BX + 1.83%) Selon les estimations, plus de 1 2030 milliards de dollars seront investis dans les centres de données américains d'ici XNUMX, Google (GOOGL -1.77%), Meta (META -2.65%) et Amazon (AMZN -0.84%) parmi les géants de la technologie qui construisent des centres de données à travers le pays.

La consommation énergétique du secteur ne va donc que s’accélérer à partir de maintenant. Goldman Sachs (GS + 0.57%) estime que la demande énergétique des centres de données augmentera de 160 % au cours des cinq prochaines années, ce qui entraînera naturellement une croissance sans précédent de la consommation d'électricité.

Selon les estimations de l’Electric Power Research Institute (EPRI), la consommation d’énergie de ces installations aux États-Unis pourrait représenter entre 4.6 % et 9.1 % de la production totale d’électricité d’ici la fin de la décennie. 

Pendant ce temps, en Europe, et plus précisément en Allemagne, les centres de données ont consommé environ 16 milliards de kWh d’énergie en 2020 pour le calcul, le stockage et la transmission, un chiffre qui devrait atteindre 22 milliards de kWh d’ici 2025.

Par conséquent, les chercheurs explorent constamment des moyens de réduire les besoins énergétiques de l’IA. 

Réduire la consommation d'énergie de l'IA

Réduire la consommation énergétique des centres de données

La technologie de l’IA joue un rôle clé dans l’amélioration de l’efficacité énergétique dans divers secteurs en optimisant la consommation d’énergie, en prédisant la demande et en permettant une gestion intelligente du réseau, ce qui conduit finalement à une réduction du gaspillage d’énergie et des émissions de carbone. 

Par exemple, Vodafone UK a utilisé l'IA pour réduire la consommation énergétique quotidienne de ses unités radio 5G (RU) grâce aux solutions logicielles avancées d'Ericsson basées sur l'IA et l'apprentissage automatique. L'entreprise a déjà réussi à réduire cette consommation de 33 % sur certains sites londoniens.

Vodafone UK a mis en œuvre trois principales fonctionnalités d’économie d’énergie dans le cadre de l’essai. 

Cela inclut une carte thermique d'efficacité énergétique radio, qui utilise l'apprentissage automatique pour identifier et classer les sites sous-performants afin d'améliorer l'efficacité de manière ciblée, en créant une représentation visuelle de toutes les cellules du réseau. L'orchestration du mode veille cellulaire 4G a également développé un modèle comportemental des cellules du réseau pour affiner les paramètres de veille et créer un équilibre entre économies d'énergie et performances. La veille profonde 5G, quant à elle, utilise des algorithmes prédictifs basés sur l'IA, réduisant la consommation d'énergie de 70 % en heures creuses.

Mais qu'en est-il Consommation d'énergie de l'IA? Eh bien, les chercheurs et les entreprises ont ciblé de nombreux domaines différents pour réduire la consommation d’énergie de cette technologie à croissance rapide.

Cela comprend l’optimisation des modèles d’IA, l’utilisation de matériel économe en énergie et l’adoption de pratiques durables telles que les énergies renouvelables et le refroidissement efficace dans les centres de données.

Pour optimiser les modèles d'IA, différentes approches peuvent être adoptées, telles que l'élagage, la quantification et la distillation. L'élagage consiste à supprimer les paramètres et connexions inutiles d'un modèle sans en affecter la précision. La quantification consiste à réduire la précision des paramètres du modèle afin de diminuer les besoins de calcul et la consommation d'énergie. La distillation consiste à entraîner des modèles plus petits pour imiter le comportement d'un modèle plus grand et plus complexe, ce qui permet d'obtenir un modèle plus économe en énergie et aux performances similaires. 

Comme l'a souligné la MIT Technology Review dans sa publication de cette année, les modèles plus petits constituent l'une des avancées technologiques qui définiront la prochaine ère. Ces modèles sont entraînés sur des ensembles de données plus ciblés et peuvent offrir une précision spécifique au domaine, une rentabilité accrue et une sécurité des données renforcée par rapport aux grands modèles linguistiques (LLM). 

GPT-4o mini d'OpenAI, Phi de Microsoft, Gemini Nano de Google DeepMind et Haiku de Claude 3 d'Anthropic sont quelques exemples de versions plus petites de modèles d'IA plus grands de géants de la technologie.

En ce qui concerne le matériel, l’accent a été mis sur l’utilisation de GPU et d’autres processeurs d’IA spécialisés, conçus spécifiquement pour les charges de travail hautes performances. 

Il existe également des serveurs et des processeurs économes en énergie qui ajustent la consommation d'énergie en fonction des demandes de charge de travail, la virtualisation pour une meilleure utilisation des ressources en exécutant plusieurs processus sur moins de machines physiques et des technologies de refroidissement avancées pour réduire le besoin de systèmes de climatisation gourmands en énergie. 

Comme nous l'avons partagé le mois dernier, des chercheurs de l'Université de Tohoku, de l'Agence japonaise de l'énergie atomique et de l'Institut national des sciences des matériaux a réalisé un matériel d'IA hautement efficace et économe en énergieLes chercheurs ont utilisé des dispositifs spintroniques pour des puces d'IA à faible consommation et ont présenté un dispositif de couple spin-orbite (SOT) programmé par le courant qui ouvre les portes à une nouvelle génération de matériel d'IA.

Une autre façon de réduire la consommation énergétique de l'IA est d'adopter des pratiques durables. Les centres de données peuvent utiliser des sources d'énergie renouvelables, mettre en œuvre des systèmes de refroidissement économes en énergie et concevoir des configurations efficaces pour réduire la consommation énergétique.

Les entreprises s'engagent activement dans ce sens, comme Google qui progresse dans le domaine de la géothermie. Microsoft, par exemple, s'apprête à rouvrir la centrale nucléaire de Three Mile Island pour atteindre la neutralité carbone d'ici 2030.

Il est intéressant de noter que l'IA est également utilisée pour améliorer l'efficacité énergétique. Cette technologie permet d'optimiser la consommation d'énergie dans les bâtiments et les industries, en prédisant les besoins de maintenance des équipements et en réduisant les pics de demande en exploitant les conditions du réseau en temps réel.

Au milieu de tout cela, des chercheurs de l'Université technique de Munich (TUM) ont développé une nouvelle méthode qui entraîne les réseaux neuronaux jusqu'à 100 fois plus rapidement, réduisant considérablement la consommation d'énergie associée aux applications d'IA.

Pour cela, les chercheurs ont calculé les paramètres directement en fonction des probabilités plutôt que d’adopter une approche itérative, mais les résultats ont été jusqu’à présent comparables en qualité aux méthodes itératives existantes.

Une nouvelle façon de réduire considérablement la consommation d'énergie de l'IA 

Une barre de progression indiquant une baisse de la consommation d'énergie

Outre l’utilisation accrue de l’IA, le lancement d’applications d’IA plus complexes dans les années à venir entraînera une augmentation substantielle des demandes de capacité des centres de données. 

Ces applications consommeront d'énormes quantités d'énergie pour l'entraînement des réseaux neuronaux. La nouvelle étude vise donc à réduire la puissance considérable requise pour entraîner les réseaux neuronaux destinés à l'IA. 

Les réseaux neuronaux sont utilisés en IA pour reconnaître des images et traiter le langage, entre autres tâches. Leur fonctionnement s'inspire du fonctionnement du cerveau humain.

Le réseau neutre est constitué de nœuds interconnectés appelés neurones artificiels. Les signaux d'entrée y sont pondérés par des paramètres spécifiques avant d'être additionnés. Si la limite définie est dépassée, le signal est transmis au nœud suivant.

Désormais, pour entraîner le réseau, la sélection initiale des valeurs des paramètres est généralement randomisée, puis progressivement ajustée pour améliorer progressivement les prédictions du réseau.

Cette approche nécessite bien sûr de nombreuses itérations, ce qui rend la formation extrêmement exigeante, entraînant à son tour une consommation importante d’électricité.

Une équipe de chercheurs dirigée par Felix Dietrich, professeur d'apprentissage automatique assisté par la physique, a développé une nouvelle méthode. M. Dietrich est membre fondateur de l'Institut des sciences des données de Munich (MDSI) et membre associé du Centre d'apprentissage automatique de Munich (MCML).

Cette nouvelle technique utilise les probabilités plutôt que de déterminer les paramètres entre les nœuds de manière répétée. Cette nouvelle méthode probabiliste utilise de manière ciblée les valeurs situées à des emplacements critiques des données d'apprentissage, c'est-à-dire là où les valeurs changent rapidement et de manière importante. 

Grâce à cette approche, l'étude vise à obtenir des systèmes dynamiques économes en énergie à partir des données. Ces systèmes dynamiques évoluent au fil du temps selon des règles définies. On les retrouve sur les marchés financiers et dans les modèles climatiques.

Notre méthode permet de déterminer les paramètres requis avec une puissance de calcul minimale. Cela permet d'accélérer considérablement l'apprentissage des réseaux neuronaux et, par conséquent, de réduire la consommation d'énergie. De plus, nous avons constaté que la précision de la nouvelle méthode est comparable à celle des réseaux entraînés de manière itérative.

– Dietrich

Cette avancée pourrait réduire considérablement l'impact environnemental de l'IA en diminuant l'énergie nécessaire à l'entraînement des réseaux neuronaux. D'ici un à trois ans, les industries pourraient déployer des modèles d'IA à grande échelle et adopter cette méthode, ce qui déboucherait sur des solutions d'IA plus durables et plus rentables.

Entreprise innovante

NVIDIA Corporation (NVDA -0.79%)

Leader dans le domaine de l'informatique IA, NVIDIA développe des GPU et des accélérateurs IA économes en énergie, innovant continuellement pour améliorer les performances tout en réduisant la consommation d'énergie.

L'année dernière, lors de l'AI Summit DC, l'entreprise a annoncé une réduction massive de la consommation énergétique de ses GPU, divisée par 2,000 100,000 lors de l'entraînement, au cours des dix dernières années. Durant cette période, la consommation d'énergie pour la génération de jetons a également été divisée par 2,000 4,000. L'efficacité a été multipliée par XNUMX XNUMX, tandis que les performances de calcul ont été multipliées par XNUMX XNUMX au cours des dix dernières années.

Selon Bob Pette, vice-président des plateformes d’entreprise de Nvidia à l’époque :

« Si les voitures avaient amélioré leur efficacité autant que nous avons amélioré leurs performances d'inférence, on pourrait rouler plus de 300 ans avec un seul plein d'essence. Au cœur du calcul accéléré se trouve le calcul durable. »

Blackwell, la nouvelle architecture GPU phare de Nvidia, succède à Hopper et est conçue pour améliorer significativement les performances de l'IA. Cette plateforme est équipée de la puce la plus puissante au monde, d'un moteur Transformer de deuxième génération et de NVLink de cinquième génération, tout en offrant une excellente efficacité énergétique pour l'inférence et l'entraînement.

NVIDIA Corporation est en fait une société d'infrastructure informatique complète dont les segments incluent le calcul et la mise en réseau et les graphiques.

Compute & Networking couvre les centres de données, les réseaux, les solutions de véhicules autonomes et électriques, les services de cloud computing DGX et Jetson, tandis que le segment Graphics couvre les GPU GeForce, GeForce NOW, les logiciels GPU virtuels, les GPU NVIDIA RTX et les logiciels Omniverse Enterprise.

NVIDIA Corporation (NVDA -0.79%)

Avec une capitalisation boursière de 2.96 121.50 milliards de dollars, l'action NVIDIA s'échange, au moment de la rédaction de cet article, à 9.4 dollars, en baisse de 2.94 % depuis le début de l'année. La société affiche un BPA (sur 41.40 mois) de 0.03 et un PER (sur XNUMX mois) de XNUMX, tandis que son rendement en dividendes s'établit à XNUMX %.

Malgré la baisse récente du cours de l'action NVIDIA, qui n'est pas exclusive au fabricant de puces, l'entreprise continue d'attirer les investisseurs. Après tout, la valeur de son action a grimpé de plus de 1,800 2020 % depuis XNUMX, ce qui en fait l'une des entreprises les plus valorisées au monde.

L'intérêt pour NVIDIA est particulièrement présent chez les jeunes investisseurs car il dépasse Tesla (TSLA + 1.89%) comme l'action la plus détenue sur Robin des Bois (HOOD -1.11%). Une grande majorité (75 %) des comptes financés sur cette plateforme d’investissement sans commission sont détenus par les Millenials et la génération Z. 

Le PDG de Robinhood, Vlad Tenev, estime également que Nvidia sera plus important que jamais, grâce à l'IA.

« Je pense que l’IA va rendre l’investissement plus important, car si le contrôle de la technologie doit être centralisé dans les entreprises technologiques, alors vous devez être un investisseur dans ces entreprises pour en bénéficier. »

– Tenev

En ce qui concerne les finances de l'entreprise, Nvidia a rapporté que le quatrième trimestre s'est terminé le 4 janvier 26, révélant un chiffre d'affaires de 2025 milliards de dollars, soit une augmentation de 39.3 % et 12 % par rapport au trimestre précédent et à l'année précédente, respectivement. 

Dans le segment des centres de données, le chiffre d'affaires de l'entreprise au quatrième trimestre a atteint un record de 35.6 milliards de dollars. Durant cette période, NVIDIA a été choisi comme partenaire technologique clé pour le projet Stargate, d'une valeur de 500 milliards de dollars.

D'autres développements ont inclus les fournisseurs de services cloud AWS, CoreWeave, Google Cloud Platform (GCP), Microsoft Azure et Oracle Cloud Infrastructure (OCI) utilisant les systèmes NVIDIA® GB200 pour répondre à la demande croissante d'IA, rendant la plateforme informatique NVIDIA DGX™ Cloud AI et les microservices NVIDIA NIM™ disponibles via AWS Marketplace, Cisco intégrant NVIDIA Spectrum-X™ dans son portefeuille de réseaux, collaborant avec Verizon pour intégrer NVIDIA AI Enterprise et s'associant à IQVIA, Mayo Clinic, Illumina et Arc Institute pour faire progresser la découverte de médicaments, la génomique et les soins de santé.

Les revenus des PC de jeu et d'IA ont chuté à 2.5 milliards de dollars tandis que NVIDIA a annoncé de nouvelles cartes graphiques GeForce RTX™ série 50 et des ordinateurs portables alimentés par l'architecture Blackwell, a lancé les cartes graphiques GeForce RTX 5090 et 5080 et a introduit DLSS 4. 

En plus de cela, les revenus de la visualisation professionnelle se sont élevés à 511 millions de dollars et ceux de la division automobile et robotique à 570 millions de dollars.

Au cours de ce trimestre, le bénéfice par action dilué selon les PCGR de la société s'est élevé à 0.89 $, en hausse de 14 % par rapport au trimestre précédent et de 82 % par rapport à l'année précédente. Le bénéfice par action dilué non conforme aux PCGR s'est quant à lui établi à 0.89 $.

Pour l'exercice 2025, le chiffre d'affaires s'est élevé à 130.5 milliards de dollars, soit une augmentation considérable de 114 % par rapport à l'année précédente. Le bénéfice par action dilué selon les PCGR pour la période s'est élevé à 2.94 dollars et le bénéfice par action dilué non selon les PCGR à 2.99 dollars. 

« La demande pour Blackwell est incroyable, car l'IA raisonnée ajoute une autre loi d'échelle : l'augmentation calcul pour la formation, les modèles deviennent plus intelligents et plus performants calcul car une longue réflexion donne la réponse intelligentr." 

– PDG et fondateur Jensen Huang

L'entreprise a donc accéléré la production de ses supercalculateurs Blackwell AI, réalisant des milliards de dollars de ventes.

Pour le premier trimestre de l'exercice 2026, la société prévoit un chiffre d'affaires de 43 milliards de dollars, des dépenses d'exploitation GAAP de 5.2 milliards de dollars et d'autres revenus non GAAP d'environ 400 millions de dollars.

« L’IA progresse à la vitesse de la lumière, tandis que l’IA agentique et l’IA physique préparent le terrain pour la prochaine vague d’IA qui révolutionnera les plus grandes industries. »

– Huang

Dernières nouvelles de NVIDIA Corporation

Conclusion

L'IA est sur le point de révolutionner les entreprises de tous les secteurs, mais cela implique une augmentation sans précédent de la demande énergétique. Cette demande représente un défi majeur, que de nombreux chercheurs s'efforcent de relever. 

Le développement d'une nouvelle méthode d'apprentissage probabiliste marque une avancée majeure dans le domaine de l'IA économe en énergie, en réduisant jusqu'à 100 fois les besoins énergétiques. Face à l'augmentation prévue de la consommation énergétique liée à l'IA avec le développement des centres de données, cette avancée pourrait réduire considérablement les coûts d'exploitation et l'impact environnemental. 

Associées à l’accent mis par Nvidia sur les GPU économes en énergie et les accélérateurs d’IA, ces innovations peuvent contribuer à accélérer l’adoption de l’IA et à stimuler la productivité.

Cliquez ici pour tout savoir sur l’investissement dans l’intelligence artificielle. 

Gaurav a commencé à trader des crypto-monnaies en 2017 et est depuis tombé amoureux de l’espace crypto. Son intérêt pour tout ce qui concerne la crypto a fait de lui un écrivain spécialisé dans les crypto-monnaies et la blockchain. Bientôt, il s’est retrouvé à travailler avec des sociétés de cryptographie et des médias. Il est également un grand fan de Batman.

Annonceur Divulgation: Securities.io s'engage à respecter des normes éditoriales rigoureuses pour fournir à nos lecteurs des critiques et des notes précises. Nous pouvons recevoir une compensation lorsque vous cliquez sur des liens vers des produits que nous avons examinés.

AMF: Les CFD sont des instruments complexes et comportent un risque élevé de perte rapide d'argent en raison de l'effet de levier. Entre 74 et 89 % des comptes d’investisseurs particuliers perdent de l’argent lors de la négociation de CFD. Vous devez vous demander si vous comprenez le fonctionnement des CFD et si vous pouvez vous permettre de prendre le risque élevé de perdre votre argent.

Avis de non-responsabilité relatif aux conseils en investissement: Les informations contenues sur ce site Internet sont fournies à des fins pédagogiques et ne constituent pas un conseil en investissement.

Clause de non-responsabilité relative aux risques de négociation: Le trading de titres comporte un degré de risque très élevé. Négociez tout type de produits financiers, y compris le forex, les CFD, les actions et les crypto-monnaies.

Ce risque est plus élevé avec les crypto-monnaies en raison du fait que les marchés sont décentralisés et non réglementés. Vous devez être conscient que vous risquez de perdre une partie importante de votre portefeuille.

Securities.io n'est pas un courtier enregistré, un analyste ou un conseiller en investissement.