Künstliche Intelligenz
KI trifft Effizienz: Ein neuer Chip reduziert den LLM-Stromverbrauch um 50 %
Securities.io hält strenge redaktionelle Standards ein und erhält möglicherweise eine Vergütung für geprüfte Links. Wir sind kein registrierter Anlageberater und dies stellt keine Anlageberatung dar. Bitte beachten Sie unsere Affiliate-Offenlegung.

Der anhaltende Boom der künstlichen Intelligenz (KI) führt zu einem starken Anstieg der Zahl von Rechenzentren, was wiederum einen immensen Bedarf an Strom für den Betrieb und die Kühlung der darin enthaltenen Server mit sich bringt.
Weltweit gibt es über 8,000 Rechenzentren, die meisten davon in den USA, doch diese Zahl wird in den kommenden Jahren erheblich steigen.
Nach Schätzungen der Boston Consulting Group wird die Nachfrage nach Rechenzentren bis 15 jährlich um 20 bis 2030 Prozent steigen. Das Unternehmen geht davon aus, dass sie zu diesem Zeitpunkt 16 Prozent des gesamten Stromverbrauchs in den USA ausmachen werden. Vor der Veröffentlichung von ChatGPT durch OpenAI im Jahr 2.5 lag dieser Anteil bei lediglich 2022 Prozent.
Inzwischen hat die Sonderbericht zu Energie und KI Eine in diesem Jahr veröffentlichte Studie der Internationalen Energieagentur (IEA) geht davon aus, dass sich der Strombedarf von Rechenzentren weltweit bis zum Ende dieses Jahrzehnts mindestens verdoppeln und auf etwa 945 TWh steigen wird. Dies entspricht fast dem heutigen Verbrauch Japans.
Laut der autonomen zwischenstaatlichen Organisation mit Sitz in Paris ist KI der Haupttreiber dieses sprunghaften Anstiegs. Der Strombedarf von KI-optimierten Rechenzentren dürfte sich bis 2030 mehr als vervierfachen.
Insbesondere in den USA wird der Stromverbrauch von Rechenzentren bereits jetzt etwa die Hälfte des Wachstums der Stromnachfrage zwischen heute und 2030 ausmachen. Angetrieben durch den Einsatz künstlicher Intelligenz wird die US-Wirtschaft dem Bericht zufolge dann mehr Strom für die Datenverarbeitung verbrauchen als für die Herstellung aller energieintensiven Güter zusammen.
Dieser unersättliche Energiehunger stellt ein massives Problem für die Weiterentwicklung und Einführung von KI dar. Ein Lichtblick ist jedoch die wachsende Zahl von Forschern und Unternehmen, die daran arbeiten, den Stromverbrauch von KI zu senken und sie energieeffizienter zu gestalten.
Das Interessante an diesen Bemühungen ist, dass viele von ihnen KI nutzen, um ihre eigenen Energieprobleme zu lösen.
Erst in diesem Monat hat ein Forscherteam einen neuen Chip vorgestellt, der mithilfe künstlicher Intelligenz den Energieverbrauch großer Sprachmodelle (LLMs) um 50 % reduziert. Dies stellt einen wichtigen Fortschritt dar, um LLMs kosteneffizienter und nachhaltiger zu betreiben.
Neuer Chip nutzt KI, um den Energieverbrauch von LLM zu senken

Forscher des Oregon State University College of Engineering haben den neuen effizienten KI-Chip entwickelt, um das Problem des massiven Stromverbrauchs von LLM-KI-Anwendungen wie GPT-4 von OpenAI und Gemini von Google zu lösen.
Ein großes Sprachmodell (LLM), eine Art Modell für maschinelles Lernen (ML), wird anhand großer Datenmengen vortrainiert, um Aufgaben der natürlichen Sprachverarbeitung (NLP) wie Textgenerierung, Zusammenfassung, Vereinfachung, Textschlussfolgerung, Sprachübersetzung und mehr auszuführen.
Zu den beliebtesten und am weitesten verbreiteten Chatbots gehören heute GPT-4o, o3 und o1 von OpenAI, Gemini und Gemma von Google, Llama von Meta, R1 und V3 von DeepSeek, Claude von Anthropic, Nova von Amazon, Phi von Microsoft und Grok von xAI.
In den letzten Jahren haben LLMs den Bereich der KI grundlegend verändert, indem sie es Maschinen ermöglichen, menschenähnliche Texte präziser zu verstehen und zu generieren. Diese Entwicklung der LLMs hat jedoch zu einem exponentiellen Wachstum ihrer Größe geführt.
Die Größe eines LLM, gemessen an der Anzahl seiner Parameter, ist der Hauptfaktor für seinen Energieverbrauch. Das bedeutet: Je größer das Modell, desto größer der Bedarf an Rechenleistung für Training und Inferenz.
ChatGPT-1 beispielsweise hatte knapp 120 Millionen Parameter, mit GPT-175 stieg die Zahl auf 3 Milliarden Parameter und mit GPT-1.8 auf rund 4 Billionen Parameter.
Dieser enorme Anstieg der Größe und Leistungsfähigkeit von LLMs führt auch zu einem beispiellosen Anstieg ihres Energieverbrauchs. Neben der Größe des Modells beeinflussen Faktoren wie die Art der zum Training dieser LLMs verwendeten Hardware, die Dauer des Trainingsprozesses, die Infrastruktur (z. B. Rechenzentren), die Datenverarbeitung, die Modelloptimierung und die Effizienz der Algorithmen den Energieverbrauch von LLMs.
Daher der neue Chip der OSU-Forscher. Tejasvi Anand, außerordentlicher Professor für Elektrotechnik an der OSU und Leiter des Mixed Signal Circuits and Systems Lab der Universität, erklärt:
Das Problem besteht darin, dass der Energiebedarf für die Übertragung eines einzelnen Bits nicht im gleichen Maße sinkt, wie die Nachfrage nach Datenraten steigt. Das ist der Grund für den hohen Stromverbrauch der Rechenzentren.
Um dieses Problem zu lösen, hat das Team einen neuen Chip entworfen und entwickelt, der im Vergleich zu herkömmlichen Designs nur halb so viel Energie verbraucht.
Anand und Doktorand Ramin Javad präsentierten diese neue Technologie auf der IEEE Custom Integrated Circuits (CIC) Konferenz, die letzten Monat in Boston stattfand. Die Konferenz mit Foren, Podiumsdiskussionen, Ausstellungen und Vorträgen widmet sich der Entwicklung integrierter Schaltungen (ICs), die als Bausteine moderner elektronischer Systeme dienen und Funktionalität und Rechenleistung in einem kompakten und effizienten Gehäuse vereinen.
Die neueste Technologie wurde mit Unterstützung des Center for Ubiquitous Connectivity (CUbiC), der Semiconductor Research Corporation (SRC) und der Defense Advanced Research Projects Agency (DARPA) entwickelt. Javadi erhielt dafür auf der Konferenz außerdem den Best Student Paper Award.
Für den neuen Chip nutzten die Forscher tatsächlich KI-Prinzipien, die, wie Javadi anmerkte, den Stromverbrauch bei der Signalverarbeitung senken.
Wie er erklärte, senden und empfangen LLMs große Datenmengen über drahtgebundene Verbindungen, also kupferbasierte Kommunikationsverbindungen in Rechenzentren. Dieser gesamte Prozess verbraucht viel Energie, daher liege eine mögliche Lösung in der Entwicklung effizienterer Chips für die drahtgebundene Kommunikation.
Javadi wies außerdem darauf hin, dass die Daten bei hohen Übertragungsgeschwindigkeiten beim Empfänger beschädigt werden und daher bereinigt werden müssen. Zu diesem Zweck verwenden die meisten drahtgebundenen Kommunikationssysteme einen Equalizer, der viel Strom verbraucht.
„Wir nutzen diese KI-Prinzipien auf dem Chip, um die Daten intelligenter und effizienter wiederherzustellen, indem wir den On-Chip-Klassifikator trainieren, die Fehler zu erkennen und zu korrigieren.“
– Javadi
Obwohl dies eine große Entwicklung ist, handelt es sich lediglich um die erste Version des Chips. Die nächste Version ist bereits in Arbeit, um die Energieeffizienz weiter zu verbessern.
Insgesamt birgt diese laufende Forschung großes Potenzial für weitreichende Auswirkungen auf die Zukunft der KI-Infrastruktur und des Rechenzentrumsbetriebs. Voraussetzung dafür wäre allerdings eine erfolgreiche Implementierung der Technologie im großen Maßstab, was nie einfach ist.
Klicken Sie hier, um zu erfahren, wie KI die Mikrochip-Entwicklung auf den Kopf stellt.
Den Energiehunger der KI mit bahnbrechenden Entwicklungen auf allen Ebenen zähmen
Diese neueste Chipentwicklung ist nur eines von vielen Forschungsprojekten, die sich mit dem Energieverbrauchsproblem von KI befassen. Werfen wir einen kurzen Blick auf die innovativen Ansätze der Forscher.
Licht für KI-Energieeffizienz nutzen
Anfang des Jahres haben USST-Wissenschaftler entwickelt1 Ein mikroskopisch kleinerer KI-Chip, kleiner als ein Staubkorn oder ein Salzkorn, der Licht nutzt, um Daten aus Glasfaserkabeln zu verarbeiten. Das verspricht schnellere Berechnungen bei geringerem Energieverbrauch.
Der Chip manipuliert Licht, um Berechnungen sofort durchzuführen, anstatt Lichtsignale wie herkömmliche Computer zu interpretieren. Dafür nutzt er ein „volloptisches diffraktives tiefes neuronales Netzwerk“, eine Technologie, die gemusterte, 3D-gedruckte Schichten von Komponenten nutzt, die übereinander gestapelt sind. Obwohl bahnbrechend, müssen Herausforderungen wie aufgabenspezifisches Design, Empfindlichkeit gegenüber Unvollkommenheiten und Schwierigkeiten bei der Produktion im großen Maßstab überwunden werden, um „beispiellose Funktionalitäten“ in der endoskopischen Bildgebung, im Quantencomputing und in Rechenzentren zu erreichen.
Einige Monate zuvor nutzten Wissenschaftler des MIT ebenfalls Licht, um die wichtigsten Operationen eines neuronalen Netzwerks auf einem Chip auszuführen, wodurch ultraschnelle KI-Berechnungen (in einer halben Nanosekunde) mit einer Genauigkeit von 92 % und enormer Energieeffizienz ermöglicht wurden.
„Diese Arbeit zeigt, dass die Datenverarbeitung – im Wesentlichen die Abbildung von Eingaben auf Ausgaben – auf neuen Architekturen der linearen und nichtlinearen Physik kompiliert werden kann, die ein grundlegend anderes Skalierungsgesetz zwischen Berechnung und benötigtem Aufwand ermöglichen.“
– Leitender Autor Dirk Englund
Die Wissenschaftler entwickelte den photonischen Chip2, das aus miteinander verbundenen Modulen besteht, die ein optisches neuronales Netzwerk bilden. Die Verwendung kommerzieller Fertigungsverfahren ermöglicht die Skalierung und Integration in die Elektronik. Wissenschaftler meisterten außerdem die Herausforderung der Nichtlinearität in der Optik, indem sie nichtlineare optische Funktionseinheiten (NOFUs) entwickelten, die Elektronik und Optik kombinieren.
Ein Softwaretool für KI-Training und ein Kühlsystem für Rechenzentren

Die Forscher der University of Michigan die Energieverschwendung gezielt Die Daten werden zum Zeitpunkt des KI-Trainings erstellt, genauer gesagt, wenn sie ungleichmäßig zwischen GPUs aufgeteilt werden, was für die Verarbeitung riesiger Datensätze erforderlich ist.
Daher entwickelten sie ein Softwaretool namens Perseus, das die Unteraufgaben identifiziert, deren Erledigung am längsten dauert, und dann die Geschwindigkeit der Prozessoren reduziert, die sich nicht auf diesem „kritischen Pfad“ befinden, damit alle ihre Aufgaben gleichzeitig erledigen können, wodurch unnötiger Stromverbrauch vermieden wird.
Dieses Open-Source-Tool ist als Teil von Zeus verfügbar, einem Tool zum Messen und Optimieren des KI-Energieverbrauchs.
Inzwischen wandten sich Forscher der University of Missouri Entwicklung eines Kühlsystems der nächsten Generation um Rechenzentren zu mehr Energieeffizienz zu verhelfen. Sie entwickeln außerdem ein Kühlsystem für einfaches An- und Abschalten innerhalb von Server-Racks.
Kühlung und Chipherstellung gehen Hand in Hand. Ohne ausreichende Kühlung überhitzen Komponenten und versagen. Energieeffiziente Rechenzentren werden für die Zukunft des KI-Computings von entscheidender Bedeutung sein.
- Chanwoo Park, Professor für Maschinenbau und Luft- und Raumfahrttechnik am Mizzou College of Engineering
Mit 1.5 Millionen US-Dollar Fördermittel aus der COOLERCHIPS-Initiative des Energieministeriums entwickelte das Team ein Zweiphasen-Kühlsystem, das die Wärme von Serverchips durch Phasenwechsel ableitet. Es kann nicht nur passiv und ohne Energieverbrauch betrieben werden, wenn weniger Kühlung erforderlich ist, sondern verbraucht auch im aktiven Modus nur sehr wenig Energie.
CRAM-Hardware könnte den Energieverbrauch von KI um das Tausendfache senken
Im vergangenen Sommer haben Ingenieure der University of Minnesota Twin Cities entwickelte ein fortschrittliches Hardwaregerät3 Dadurch könnte der Energieverbrauch von KI um etwa das 1,000-fache gesenkt werden.
Dieses neue Modell wird als Computational Random Access Memory (CRAM) bezeichnet. Dabei verlassen die Daten nie den Speicher, sondern werden vollständig innerhalb des Speicherarrays verarbeitet, sodass energieintensive und langsame Datenübertragungen nicht mehr erforderlich sind.
Diese Studie, deren Entstehung zwei Jahrzehnte gedauert hat, ist Teil der Bemühungen des Teams, auf der patentierten Forschung des leitenden Autors Jian-Ping Wang zu magnetischen Tunnelkontakten (MTJs) aufzubauen. Diese nanostrukturierten Bauelemente werden zur Verbesserung von Sensoren, Festplatten und anderen mikroelektronischen Systemen wie magnetischen Direktzugriffsspeichern (MRAM) eingesetzt.
„Als extrem energieeffizientes, digitalbasiertes In-Memory-Computing-Substrat ist CRAM sehr flexibel, da Berechnungen an jeder beliebigen Stelle im Speicherarray durchgeführt werden können“, bemerkt Co-Autorin Ulya Karpuzcu, außerordentliche Professorin am Institut für Elektro- und Informationstechnik. Außerdem kann es neu konfiguriert werden, um den Leistungsanforderungen verschiedener Algorithmen optimal gerecht zu werden.
Vom Gehirn inspirierte KI: Reduzierung des Stromverbrauchs durch Nachahmung menschlicher Effizienz
Wie wir gesehen haben, untersuchen Forscher verschiedene Aspekte der KI, um ihre Energieprobleme zu lösen. Interessanterweise lassen sie sich dabei auch vom menschlichen Gehirn inspirieren. Das ist sinnvoll, denn KI ist die Simulation menschlicher Intelligenzprozesse durch Maschinen, obwohl sie weit entfernt vom menschlichen Denken und Denken Dies liegt daran, dass seine Fähigkeit zur Verallgemeinerung über Variationen hinweg „deutlich schwächer ist als die menschliche Wahrnehmung“.
Die vom Gehirn inspirierte Forschung zur Energieeinsparung umfasst die Arbeit von Associate Professor Chang Xu vom Sydney AI Centre der Universität. Er stellte fest, dass die Auslastung der Ressourcen selbst für einfache Aufgaben bei LLMs nicht der richtige Weg ist. Er erklärte:
„Wenn man an ein gesundes menschliches Gehirn denkt, feuert es nicht alle Neuronen gleichzeitig und nutzt auch nicht seine gesamte Gehirnleistung gleichzeitig. Es arbeitet unglaublich energieeffizient: Es verbraucht nur 20 Watt, obwohl es rund 100 Milliarden Neuronen hat, die es selektiv aus verschiedenen Gehirnhälften für verschiedene Aufgaben oder Denkprozesse nutzt.“
Daher entwickeln sie Algorithmen, die nicht benötigte redundante Berechnungen umgehen und nicht automatisch auf Hochtouren laufen.
In anderen Fällen ließ sich die Forschung von der Neuromodulation des Gehirns inspirieren und entwickelte einen Algorithmus namens „Aufbewahrungssystem' um den Energieverbrauch um 37% zu reduzieren, ohne dass es zu einer Verschlechterung der Genauigkeit kommt, die Selbstreparaturfunktion der Gehirnzelle, genannt Astrozyten für Hardwaregeräteund bekam neuromorphe (vom Gehirn inspirierte) Form des Computing (Memristoren) zu zusammenarbeiten in mehreren Untergruppen neuronaler Netzwerke.
Investition in künstliche Intelligenz
Ein globales Halbleiterunternehmen, AMD (AMD ) ist bekannt für seine Hochleistungs-Computing-, Grafik- und Visualisierungstechnologien. Während es in direkter Konkurrenz zu KI-Liebling NVIDIA (NVDA )gewinnt das Unternehmen rasch an Boden auf dem Markt für Rechenzentren und KI-Beschleuniger. Die MI300-Serie zielt speziell auf KI-Workloads und HPC-Anwendungen der XNUMX. Generation ab.
Seine führende Präsenz im CPU-Bereich für Rechenzentren, sein starker Fokus auf Forschung und Entwicklung, sein Umsatzwachstum, sein Kundenstamm und seine Akquisitionen machen AMD zu einem starken Akteur in diesem Sektor.
Advanced Micro Devices (AMD )
Im Jahr 2022 schloss AMD mit der Übernahme von Xilinx einen Rekorddeal in der Chipbranche im Wert von 50 Milliarden US-Dollar ab und wurde damit zum Branchenführer für Hochleistungs- und adaptives Computing. Und erst kürzlich schloss das Unternehmen die Übernahme von ZT Systems ab, um die 500-Milliarden-Dollar-Chance für KI-Beschleuniger in Rechenzentren im Jahr 2028 zu nutzen.
Auch AMDs Marktperformance erholt sich in diesem Jahr nach den Tarifturbulenzen. Zum Zeitpunkt des Schreibens notieren die AMD-Aktien bei 120 US-Dollar, was einem Rückgang von 6.9 % gegenüber dem Vorjahr entspricht, aber nur etwa 47 % unter ihrem Höchststand vom März 2024 liegt. Damit beträgt die Marktkapitalisierung 182.34 Milliarden US-Dollar, der Gewinn pro Aktie (EPS) liegt bei 1.36 und das KGV (KGV) bei 82.44.
Was die Finanzzahlen des Unternehmens betrifft, meldete AMD für das erste Quartal 36 einen Umsatzanstieg von 7.4 % gegenüber dem Vorjahr auf 1 Milliarden US-Dollar. CEO Dr. Lisa Su bezeichnete dies trotz des dynamischen makroökonomischen und regulatorischen Umfelds als „hervorragenden Jahresauftakt“. Dieses Wachstum sei durch die „wachsende Dynamik im Rechenzentrums- und KI-Bereich“ getrieben, fügte sie hinzu.
In diesem Zeitraum belief sich AMDs Betriebsergebnis auf 806 Millionen US-Dollar, der Nettogewinn auf 709 Millionen US-Dollar und der verwässerte Gewinn pro Aktie auf 0.44 US-Dollar. Für das zweite Quartal 2 wird ein Umsatz von rund 2025 Milliarden US-Dollar prognostiziert.
Zu den wichtigsten Entwicklungen des Unternehmens zählen der Ausbau strategischer Partnerschaften mit Meta-Plattformen, Inc. (META ) (Lama), Alphabet Inc. (GOOGL ) (Gemma), Oracle Corporation (ORCL ), Core42, Dell Technologien (DELL )und andere. AMD, zusammen mit Nokia, Cisco Systems, Inc. (CSCO )und Jio kündigten außerdem eine neue Open Telecom AI Platform an, um KI-gesteuerte Lösungen zur Verbesserung von Effizienz, Sicherheit und Leistungsfähigkeit anzubieten.
Diese Woche haben sich AMD und Nvidia mit Humain, einer auf KI spezialisierten Tochtergesellschaft des saudi-arabischen Public Investment Fund, zusammengetan, um Halbleiter für ein groß angelegtes Rechenzentrumsprojekt mit einer erwarteten Kapazität von 500 MW zu liefern.
Klicken Sie hier, um eine Liste der führenden Nicht-Silizium-Computerunternehmen anzuzeigen.
Neueste Trends und Entwicklungen bei Advanced Micro Devices (AMD)
Fazit
In den letzten Jahren hat der KI-Hype explosionsartig zugenommen, und das aus gutem Grund. Schließlich birgt diese Technologie großes Potenzial, zahlreiche Branchen zu verändern – vom Gesundheitswesen über die Fertigung und Materialwissenschaft bis hin zu Finanzen, Unterhaltung, Bildung, Einzelhandel und Cybersicherheit.
Der technologische Fortschritt, die zunehmende Akzeptanz und die anschließende Verbreitung dieser LLMs haben jedoch zu einem erheblichen Energiebedarf geführt, der zu Treibhausgasemissionen und Klimawandel beiträgt, die wirtschaftlichen Kosten erhöht und die Nachhaltigkeit der Technologie beeinträchtigt.
Dies stellt eine große Herausforderung für die KI dar. Um ihr volles Potenzial hinsichtlich Kostensenkung, Produktivitätssteigerung und verbesserter Entscheidungsfindung im großen Maßstab auszuschöpfen, müssen die Modelle kosteneffizient und nachhaltig sein.
Das Gute ist jedoch, dass Forscher auf der ganzen Welt bereits intensiv daran arbeiten, KI energieeffizienter zu machen. Dies zeigt sich beispielsweise am KI-betriebenen Chip der Oregon State University, der eine gute Möglichkeit bietet, Innovation und Nachhaltigkeit in Einklang zu bringen.
Natürlich müssen die vorgeschlagenen Technologien ihr größtes Hindernis überwinden, um tatsächliche Wirkung zu erzielen: die Skalierbarkeit. Eines ist jedoch klar: Eine grünere KI-Zukunft ist machbar, und sie kommt!
Klicken Sie hier, um alles über Investitionen in künstliche Intelligenz zu erfahren.
Zitierte Studien:
1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X., & Zhang, C. (2025). Volloptische Bildübertragung durch eine Multimode-Faser unter Verwendung eines miniaturisierten diffraktiven neuronalen Netzwerks auf der distalen Facette. Nature Photonics, 19, 486–493. https://doi.org/10.1038/s41566-025-01621-4
2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, MJ, Lukin, MD, & Lončar, M. (2024). Einchip-photonisches tiefes neuronales Netzwerk mit Vorwärtstraining. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z
3. Lv, Y., Zink, BR, Bloom, RP, Roy, A., Vaddi, K., Shang, L., & Manipatruni, S. (2024). Experimentelle Demonstration eines auf magnetischen Tunnelverbindungen basierenden rechnergestützten Direktzugriffsspeichers. npj Unconventional Computing, 1, 3. https://doi.org/10.1038/s44335-024-00003-3










