Connect with us

Kunstmatige intelligentie

AI ontmoet efficiëntie: een nieuwe chip verkleint het energieverbruik van LLM met 50%

mm
Securities.io maintains rigorous editorial standards and may receive compensation from reviewed links. We are not a registered investment adviser and this is not investment advice. Please view our affiliate disclosure.
A glowing futuristic AI chip

De voortdurende groei van kunstmatige intelligentie (AI) leidt tot een toename van datacentra, wat een enorme vraag naar stroom om de servers daarin te laten draaien en te koelen met zich meebrengt.

Terwijl er wereldwijd meer dan 8.000 datacentra zijn, waarvan de meeste in de VS zijn gevestigd, zal dit aantal in de komende jaren aanzienlijk toenemen.

Volgens een schatting van de Boston Consulting Group zal de vraag naar datacentra met 15% tot 20% per jaar toenemen tot 2030. Op dat moment verwacht het bedrijf dat ze 16% van het totale energieverbruik in de VS zullen uitmaken, tegenover slechts 2,5% voordat OpenAI’s ChatGPT in 2022 werd uitgebracht.

Ondertussen verwacht het speciale Energy and AI-rapport van de International Energy Agency (IEA) dat de vraag naar elektriciteit van datacentra over de hele wereld tegen het einde van dit decennium minstens zal verdubbelen tot ongeveer 945 TWh. Dit is bijna gelijk aan hetgeen Japan vandaag verbruikt.

De in Parijs gevestigde autonome intergouvernementele organisatie meldt dat AI de grootste drijvende kracht achter deze stijging is, waarbij de vraag naar elektriciteit van AI-geoptimaliseerde datacentra tegen 2030 naar verwachting meer dan verviervoudigd zal zijn.

In de VS specifiek zal het energieverbruik van datacentra naar verwachting ongeveer de helft van de toename van de elektriciteitsvraag tussen nu en 2030 uitmaken. Gedreven door AI-gebruik zal de Amerikaanse economie op dat moment, volgens het rapport, meer elektriciteit verbruiken om gegevens te verwerken dan om alle energie-intensieve goederen samen te produceren.

Deze onstilbare honger naar energie vormt een enorm probleem voor de vooruitgang en adoptie van AI. Het zilveren randje is echter het groeiende aantal onderzoekers en bedrijven dat werkt aan het terugdringen van het energieverbruik van AI en het meer energie-efficiënt maken.

Wat interessant is aan deze inspanningen is dat veel ervan AI gebruiken om hun eigen energievraagstukken aan te pakken.

Nog maar een paar weken geleden demonstreerde een team van onderzoekers een nieuwe chip die AI gebruikt om de energievraag van grote taalmodellen (LLM’s) met 50% te verkleinen, wat een belangrijke ontwikkeling is om LLM’s kostenefficiënter en duurzamer te maken.

Nieuwe chip maakt gebruik van AI om energieverbruik van LLM te verkleinen

Nieuwe chip maakt gebruik van AI

Onderzoekers van de Oregon State University College of Engineering ontwikkelden de nieuwe efficiënte AI-chip om het enorme energieverbruikprobleem van LLM-AI-toepassingen zoals OpenAI’s GPT-4 en Google’s Gemini op te lossen.

Een type machine learning (ML)-model is een groot taalmodel (LLM) dat is voorgetraind op enorme hoeveelheden gegevens om taken voor natuurlijke taalverwerking (NLP) uit te voeren, zoals tekstgeneratie, samenvatting, vereenvoudiging, tekstredenering, taalvertaling en meer.

De meest populaire en breed gebruikte chatbots van vandaag zijn onder andere OpenAI’s GPT-4o, o3 en o1, Gemini en Gemma van Google, Llama van Meta, R1 en V3 van DeepSeek, Claude van Anthropic, Nova van Amazon, Phi van Microsoft en Grok van xAI.

In de afgelopen jaren hebben LLM’s het veld van AI volledig getransformeerd door machines in staat te stellen om menselijke tekst te begrijpen en te genereren met grotere nauwkeurigheid. Het gevolg is echter een exponentiële toename van hun formaat.

De grootte van een LLM, die wordt gemeten in het aantal parameters, is de belangrijkste drijvende kracht achter het energieverbruik. Dit betekent dat hoe groter het model, hoe groter de behoefte aan rekenkracht voor training en inferentie.

Bijvoorbeeld had ChatGPT-1 slechts ongeveer 120 miljoen parameters, wat steeg tot 175 miljard parameters met GPT-3 en vervolgens tot ongeveer 1,8 biljoen parameters met GPT-4.

Deze enorme toename van de grootte en capaciteit van LLM’s betekent dat hun energieverbruik ook op een ongekende schaal toeneemt. Naast de grootte van het model beïnvloeden factoren zoals het type hardware dat wordt gebruikt om deze LLM’s te trainen, de duur van het trainingsproces, infrastructuur, dat is datacentra, gegevensverwerking, modeloptimalisatie en algoritme-efficiëntie het energieverbruik van LLM’s.

Vandaar de nieuwe chip van de onderzoekers van de OSU. Volgens Tejasvi Anand, een associate professor in de elektrotechniek aan de OSU die ook de Mixed Signal Circuits and Systems Lab aan de universiteit leidt:

“Het probleem is dat de energie die nodig is om één bit te verzenden niet op hetzelfde tempo wordt verlaagd als de datatransmissiesnelheid toeneemt. Dat is wat datacentra zo veel stroom doet verbruiken.”

Om dit probleem te overwinnen, ontwierp en ontwikkelde het team een nieuwe chip die slechts de helft van de energie verbruikt in vergelijking met conventionele ontwerpen.

Anand en de doctoraalstudent Ramin Javad presenteerden deze nieuwe technologie op de IEEE Custom Integrated Circuits (CIC)-conferentie, die vorige maand in Boston werd gehouden. De conferentie, die forums, panels, exposities en mondelinge presentaties organiseert, is gewijd aan de ontwikkeling van IC, die de bouwsteen vormt van moderne elektronische systemen door functionaliteit en verwerkingssnelheid in een compact en efficiënt pakket te bieden.

De nieuwste technologie werd ontwikkeld met de steun van het Center for Ubiquitous Connectivity (CUbiC), de Semiconductor Research Corporation (SRC) en de Defense Advanced Research Projects Agency (DARPA). Het leverde Javadi ook de Best Student Paper Award op tijdens de conferentie.

Voor de nieuwe chip maakten de onderzoekers eigenlijk gebruik van AI-principes die, zoals Javadi opmerkte, het energieverbruik voor signaalverwerking verlagen.

Zoals hij uitlegde, verzenden en ontvangen LLM’s veel gegevens via draadverbindingen, die koperen communicatielinks in datacentra zijn. Dit hele proces vereist aanzienlijke energie, dus een mogelijke “oplossing is om meer efficiënte draadverbindingen te ontwikkelen”.

Javadi voegde eraan toe dat wanneer gegevens met hoge snelheid worden verzonden, ze aan het einde van de ontvanger worden beschadigd en dus moeten worden opgeschoond. Voor dit doel gebruiken de meeste bestaande draadverbindingssystemen een equalizer, die veel stroom verbruikt.

“We gebruiken die AI-principes op de chip om de gegevens op een slimmere en efficiëntere manier te herstellen door de classificator op de chip te trainen om fouten te herkennen en te corrigeren.”

Terwijl dit een grote ontwikkeling is, is dit slechts de eerste versie van de chip. De volgende iteratie is momenteel in ontwikkeling om de energoefficiëntie verder te verbeteren.

Al met al toont dit voortdurende onderzoek een groot potentieel om verregaande gevolgen te hebben voor de toekomst van AI-infrastructuur en datacenteroperaties. Maar natuurlijk moet de technologie op grote schaal met succes worden geïmplementeerd, wat nooit een eenvoudige taak is.

Klik hier om te leren hoe AI de microchip-engineering al omverwerpt.

AI’s energievraag temmen met doorbraken op verschillende niveaus

Deze laatste chipontwikkeling is slechts een van de vele onderzoeksprojecten die het energieverbruik van AI aanpakken. Laten we dus even kijken naar de innovatieve manieren waarop onderzoekers dit hebben aangepakt.

Gebruik van licht voor AI-energie-efficiëntie

Eerder dit jaar ontwikkelden wetenschappers van de USST een microscopische AI-chip1, kleiner dan een stofdeeltje of een korrel zout, die licht gebruikt om gegevens van glasvezelkabels te verwerken. Dit belooft snellere berekeningen met minder energieverbruik.

De chip manipuleert licht om berekeningen uit te voeren in plaats van lichtsignalen te interpreteren zoals traditionele computers doen. Hiervoor gebruikt het “all-optical diffractive deep neural network”-technologie, die gebruikmaakt van gestructureerde, 3D-geprinte lagen componenten die op elkaar zijn gestapeld. Hoewel het baanbrekend is, moeten uitdagingen zoals taakspecifieke ontwerp, gevoeligheid voor imperfecties en moeilijkheden bij het produceren op grote schaal worden overwonnen om “ongekende functionaliteiten” in endoscopische beeldvorming, kwantumcomputing en datacentra te bereiken.

Een paar maanden eerder gebruikten wetenschappers van het MIT licht om de belangrijkste operaties van een neurale netwerk op een chip uit te voeren, waardoor ultra-snelle AI-berekeningen (in een halve nanoseconde) met 92% nauwkeurigheid en enorme energoefficiëntie mogelijk werden.

“Dit werk toont aan dat computing – in wezen, het in kaart brengen van invoer naar uitvoer – kan worden samengesteld op nieuwe architectuur van lineaire en niet-lineaire fysica die een fundamenteel andere schaalwet van berekening versus inspanning mogelijk maken.”

De wetenschappers ontwikkelden de fotonicachip2, die bestaat uit verbonden modules die een optisch neurale netwerk vormen. Opvallend is dat het gebruik van commerciële foundryprocessen voor de fabricage ervan betekent dat het kan worden geschaald en geïntegreerd in elektronica. Bovendien overwonnen de wetenschappers de uitdaging van non-lineariteit in optica door niet-lineaire optische functie-eenheden (NOFUs) te ontwerpen die elektronica en optica combineren.

Klik hier om te leren over de nieuwe door het brein geïnspireerde AI die in real-time leert met ultra-laag vermogen.

Softwaretool voor AI-training en koelsysteem voor datacentra

Koelsysteem voor datacentra

Onderzoekers van de University of Michigan richtten zich op het energieverlies dat ontstaat tijdens de AI-training, meer specifiek wanneer deze tussen GPUs wordt verdeeld, een noodzaak voor het verwerken van grote datasets, op een ongelijke manier.

Ze ontwikkelden een softwaretool genaamd Perseus die subtaken identificeert die de langste tijd zullen duren en vervolgens de snelheid van processors die niet op deze “kritieke pad” staan verlaagt, zodat alle processors hun taken gelijktijdig kunnen voltooien en onnodig energieverbruik verwijderen.

Deze open-source tool is beschikbaar als onderdeel van Zeus, een tool voor het meten en optimaliseren van AI-energieverbruik.

Onderzoekers van de University of Missouri richtten zich op het ontwikkelen van een next-generatie koelsysteem om datacentra energie-efficiënter te maken. Ze zijn ook een koelsysteem aan het fabriceren voor eenvoudige aansluiting en loskoppeling binnen serverracks.

“Koeling en chipproductie gaan hand in hand. Zonder adequate koeling oververhitten componenten en falen. Energie-efficiënte datacentra zullen de toekomst van AI-computing zijn.”

Met de steun van 1,5 miljoen dollar aan financiering van het DOE’s COOLERCHIPS-initiatief ontwikkelde het team een tweefasen koelsysteem dat warmte van serverchips door faseverandering afvoert. Het kan niet alleen passief draaien zonder enige energie te gebruiken wanneer minder koeling nodig is, maar zelfs wanneer het in actieve modus is, gebruikt het systeem een zeer kleine hoeveelheid energie.

CRAM-hardware kan AI-energieverbruik met 1000x verlagen

Vorige zomer ontwikkelden ingenieurs aan de University of Minnesota Twin Cities een geavanceerd hardwareapparaat3 dat het energieverbruik van AI met ongeveer 1.000 keer kan verlagen.

Dit nieuwe model heet computationele random-access memory (CRAM) en hier wordt de data nooit uit het geheugen verwijderd; in plaats daarvan wordt het volledig binnen het geheugenarray verwerkt, waardoor de behoefte aan energievretende en trage gegevensoverdrachten wordt geëlimineerd.

Twee decennia in de maak, is deze studie onderdeel van de inspanningen van het team om voort te bouwen op het door Jian-Ping Wang gepatenteerde onderzoek naar Magnetic Tunnel Junctions (MTJs)-apparaten. Deze nano-geconstrueerde apparaten worden gebruikt om sensoren, harde schijven en andere micro-elektronica-systemen zoals Magnetic Random Access Memory (MRAM) te verbeteren.

“Als een uiterst energie-efficiënte digitale opslag in het geheugen, is CRAM zeer flexibel omdat berekeningen op elke locatie in het geheugenarray kunnen worden uitgevoerd”, merkte mede-auteur Ulya Karpuzcu, associate professor in de afdeling Elektrotechniek en Informatica, op. Bovendien kan het worden geconfigureerd om de prestatiebehoeften van verschillende algoritmen het beste te dienen.

Door het brein geïnspireerde AI: energieverbruik verlagen door menselijke efficiëntie na te bootsen

Dus, zoals we zagen, richten onderzoekers zich op verschillende aspecten van AI om hun energievraagstukken aan te pakken. Interessant genoeg keren ze zich ook tot het menselijk brein voor inspiratie. Dit is logisch, aangezien AI de simulatie is van menselijke intelligentieprocessen door machines, hoewel het nog niet in de buurt komt van menselijk denken en redeneren vanwege de mogelijkheid om te generaliseren over variaties die “aanzienlijk zwakker zijn dan menselijke cognitie”.

Het onderzoek naar door het brein geïnspireerde energieverlaging omvat het werk van associate professor Chang Xu in het Sydney AI Centre, die opmerkte dat LLM’s die alle middelen volledig benutten, zelfs voor eenvoudige taken, niet de juiste manier is om dingen te doen.

“Wanneer je nadenkt over een gezond menselijk brein – het activeert niet alle neuronen of gebruikt alle hersenkracht tegelijk. Het werkt met ongelooflijk energoefficiëntie, slechts 20 watt aan stroom ondanks het feit dat het ongeveer 100 miljard neuronen heeft, die het selectief gebruikt vanuit verschillende hersenhelften om verschillende taken of denkprocessen uit te voeren.”

Ze ontwikkelen algoritmen die berekeningen die niet nodig zijn omzeilen en niet automatisch in de hoogste versnelling gaan.

In andere gevallen nam het onderzoek inspiratie uit de neuromodulatie van het brein en creëerde een algoritme genaamd een “opslagsysteem” om energieverbruik met 37% te verlagen zonder enige precisieverlies, de zelfherstellende functie van hersencellen genaamd astrocyten voor hardwareapparaten en kreeg neuromorfische (door het brein geïnspireerde) vormen van computing (memristors) om samen te werken in verschillende subgroepen van neurale netwerken.

Investeren in kunstmatige intelligentie

Een wereldwijd halfgeleiderbedrijf, AMD (AMD ) is bekend om zijn hoge prestatiecomputing-, grafische en visualisatietechnologieën. Terwijl het in directe concurrentie staat met AI-liefhebber NVIDIA (NVDA ), wint het snel terrein in de datacenter- en AI-accelerator-markten. De MI300-serie richt zich specifiek op gen-AI-werklasten en HPC-toepassingen.

De leidende positie van AMD in de datacenter-CPU-ruimte, sterke R&D-focus, omzetgroei, klantenbestand en overnames maken AMD een sterke speler in de sector.

Advanced Micro Devices (AMD )

Begin 2022 sloot AMD een recordchipdeal ter waarde van 50 miljard dollar met de overname van Xilinx om de industrieleider te worden in hoge prestatie- en adaptieve computing. En onlangs voltooide het de overname van ZT Systems om de $500 miljard datacenter-AI-accelerator-kans in 2028 aan te pakken.

De marktprestaties van AMD herstellen zich dit jaar na te zijn geraakt door tarief-turbulentie. Op het moment van schrijven worden AMD-aandelen verhandeld tegen 120 dollar, een daling van 6,9% sinds het begin van het jaar, maar slechts ongeveer 47% onder het hoogste punt van maart 2024. Daarmee is de marktkapitalisatie 182,34 miljard dollar, met een EPS (TTM) van 1,36 en een P/E (TTM) van 82,44.

Wat de financiële prestaties van het bedrijf betreft, rapporteerde AMD een omzetstijging van 36% jaar-op-jaar tot 7,4 miljard dollar in het eerste kwartaal van 2025, wat CEO Dr. Lisa Su “een uitstekend begin” van het jaar noemde, “ondanks de dynamische macro- en regelgevingsomgeving”. Deze groei werd gedreven door “uitbreidende datacenter- en AI-momentum”, voegde ze eraan toe.

Tijdens deze periode bedroeg het operationele inkomen van AMD 806 miljoen dollar, de nettowinst was 709 miljoen dollar en de verwaterde winst per aandeel was 0,44 dollar. Voor het tweede kwartaal van 2025 verwacht het ongeveer 7,4 miljard dollar aan omzet.

Enkele belangrijke ontwikkelingen van het bedrijf zijn onder andere de uitbreiding van strategische partnerschappen met Meta Platforms, Inc. (META ) (Llama), Alphabet Inc. (GOOGL ) (Gemma), Oracle Corporation (ORCL ), Core42, Dell Technologies (DELL ) en anderen. AMD, samen met Nokia, Cisco Systems, Inc. (CSCO ) en Jio, kondigde ook een nieuw Open Telecom AI Platform aan om AI-gedreven oplossingen te bieden om efficiëntie, beveiliging en mogelijkheden te verbeteren.

Klik hier voor een lijst van de beste niet-siliciumcomputingbedrijven.

Laatste trends en ontwikkelingen bij Advanced Micro Devices (AMD)

Conclusie

De afgelopen jaren hebben we een explosieve groei van AI-gekte gezien, en terecht. Deze technologie heeft namelijk een groot potentieel om een breed scala aan industrieën te transformeren, van gezondheidszorg, fabricage en materiaalwetenschap tot financiën, entertainment, onderwijs, detailhandel en cybersecurity.

Helaas heeft de technologische vooruitgang, de groeiende adoptie en de daaropvolgende uitbreiding van deze LLM’s echter geleid tot een aanzienlijke vraag naar energie, wat bijdraagt aan broeikasgasemissies en klimaatverandering, de economische kosten verhoogt en de duurzaamheid van de technologie beïnvloedt.

Dit vormt een groot probleem voor AI. Als we de volle potentie van AI willen realiseren in termen van verlaagde kosten, verhoogde productiviteit en verbeterde besluitvorming op grote schaal, moeten de modellen kostenefficiënt en duurzaam zijn.

Het goede nieuws is echter dat onderzoekers over de hele wereld al hard aan het werk zijn om AI energie-efficiënter te maken, zoals blijkt uit de AI-aangedreven chip van Oregon State, die een sterke mogelijkheid suggereert om innovatie met duurzaamheid te combineren.

Natuurlijk moeten de voorgestelde technologieën hun grootste obstakel overwinnen om een reële impact te hebben, namelijk schaalbaarheid. Eén ding is echter zeker: een groenere toekomst voor AI is haalbaar, en die is in aantocht!

Klik hier om alles te leren over investeren in kunstmatige intelligentie.

Geraadpleegde studies:

1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X., & Zhang, C. (2025). All-optical image transportation through a multimode fibre using a miniaturized diffractive neural network on the distal facet. Nature Photonics, 19, 486–493. https://doi.org/10.1038/s41566-025-01621-4

2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, M. J., Lukin, M. D., & Lončar, M. (2024). Single-chip photonic deep neural network with forward-only training. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z

3. Lv, Y., Zink, B. R., Bloom, R. P., Roy, A., Vaddi, K., Shang, L., & Manipatruni, S. (2024). Experimental demonstration of magnetic tunnel junction-based computational random-access memory. npj Unconventional Computing, 1, 3. https://doi.org/10.1038/s44335-024-00003-3

Gaurav is in 2017 begonnen met het verhandelen van cryptocurrencies en is sindsdien verliefd geworden op de crypto-ruimte. Zijn interesse in alles wat met crypto te maken heeft, heeft hem ertoe gebracht een schrijver te worden die zich specialiseert in cryptocurrencies en blockchain. Al snel vond hij zichzelf werken met crypto-bedrijven en media-uitzendingskanalen. Hij is ook een grote fan van Batman.

Advertiser Disclosure: Securities.io is committed to rigorous editorial standards to provide our readers with accurate reviews and ratings. We may receive compensation when you click on links to products we reviewed. ESMA: CFDs are complex instruments and come with a high risk of losing money rapidly due to leverage. Between 74-89% of retail investor accounts lose money when trading CFDs. You should consider whether you understand how CFDs work and whether you can afford to take the high risk of losing your money. Investment advice disclaimer: The information contained on this website is provided for educational purposes, and does not constitute investment advice. Trading Risk Disclaimer: There is a very high degree of risk involved in trading securities. Trading in any type of financial product including forex, CFDs, stocks, and cryptocurrencies. This risk is higher with Cryptocurrencies due to markets being decentralized and non-regulated. You should be aware that you may lose a significant portion of your portfolio. Securities.io is not a registered broker, analyst, or investment advisor.