Weltraum
Space-basierte KI: Die nächste Grenze für Cloud-Skala

Warum sich die KI-Infrastruktur in den Orbit bewegt
Da die KI boomet, sind mehrere Versorgungseinschränkungen entstanden. Die erste war GPUs, wobei sich spezielle Hardware von einer Nischen-Gaming-Verwendung zur Massenadoption durch KI-Rechenzentren bewegte. Als Ergebnis ist Nvidia (NVDA ), der Marktführer des Sektors, zum größten Unternehmen der Welt gewachsen.
Aber eine weitere Einschränkung wird zum Hauptproblem: Energieversorgung.
Dies liegt daran, dass KI-Rechenzentren jetzt nicht mehr so sehr nach ihrer Rechenleistung, sondern nach ihrem Energieverbrauch gemessen werden. Deshalb streben KI-Unternehmen danach, Kernkraftwerke wieder in Betrieb zu nehmen, die ersten SMR-Prototypen zu sichern oder staatliche Regulierungsbehörden genehmigen neue gasbetriebene Kraftwerke für die Genehmigung.
Wenn der Wettlauf, um Energie für Rechenzentren zu finden, intensiver wird, richten sich die Blicke auf eine weitere Option: space-basierte KI, was der “Cloud-Computing”-Bezeichnung eine ganz neue physische Bedeutung gibt.
Die Möglichkeit einer unbegrenzten Energieversorgung durch Orbital-Satelliten ist etwas, das wir bereits in ” Space-Based Energy Solutions For Endless Clean Energy” ausführlich analysiert haben.
Aber dieses Konzept ist immer noch durch die Notwendigkeit eingeschränkt, Sonnenenergie in Strom umzuwandeln, diesen Strom in Mikrowellen umzuwandeln, um ihn zurück zur Erde zu strahlen, und ihn dann wieder in Strom umzuwandeln.
Dies erhöht die Komplexität der Stromsatelliten, erfordert mehr bodengestützte Infrastruktur und verringert insgesamt die Effizienz des Verfahrens erheblich, da jede Umwandlung in eine andere Energieform zu Verlusten führt. Dies könnte wahrscheinlich nur mit sehr billigen orbitalen Starts funktionieren.
Alternativ, wenn die Energie direkt im Orbit verwendet würde, wäre dies viel effizienter und würde wirtschaftlich tragbarer, insbesondere wenn das Endprodukt leicht zurück zur Erde gesendet werden kann.
Theoretisch könnten Rechenzentren im Weltraum die ideale Option sein: Sie benötigen viel Energie, aber das Senden der Ergebnisse der Berechnungen zurück zur Erde ist trivial, erfordert keine neue Infrastruktur und verursacht keine Energieverluste.
Die Idee ist nicht nur theoretisch; zum Beispiel hat Alphabet/Google gerade ” Project Suncatcher” angekündigt, ein orbitaler KI-Rechen-System-Prototyp, den wir in ” Google’s Project Suncatcher und der Aufstieg der Orbitalen KI” abgedeckt haben.
Könnte es also funktionieren, und warum könnte es der nächste Schritt bei der Aufbau von KI-Infrastruktur sein?
Die Kollision von zwei Trends
Lösung der terrestrischen Strombeschränkung
Mehr Energie als je zuvor ist erforderlich, um die menschliche Zivilisation zu versorgen, und die Kommerzialisierung von LLMs hat den Bedarf an neuen Stromerzeugungskapazitäten nur erhöht. Bisher ist die meisten neu installierte Stromerzeugung Solarenergie.

Quelle: ARK Invest
Aber dies stellt ein Problem für terrestrische Netze dar, da Solarenergie nur dann Strom erzeugt, wenn die Sonne scheint, was zu einer geringeren Produktion an bewölkten Tagen, im Winter oder am Abend führt. Im Gegensatz dazu erfordern stromintensive Quellen wie KI-Rechenzentren eine kontinuierliche Stromversorgung, wobei der Spitzenverbrauch oft am Abend und im Winter auftritt.
Theoretisch kann dies durch billige Energiespeicherung gelöst werden, wie z.B. durch großflächige Batterieparks. In der Praxis hebt dies jedoch viele der Vorteile von Solarenergie als grüne und günstigere Energiequelle auf.

Quelle: ARK Invest
ARK Invest schätzt, dass die Kapitalausgaben für die Stromerzeugung um das ~2-fache auf ~10 Billionen USD bis 2030 ansteigen müssen, um den globalen Strombedarf zu decken. Davon müssen die Stationären Energiespeicher um das 19-fache ansteigen.

Quelle: ARK Invest
Dies erfordert auch massive Investitionen in das Stromnetz, was weitere Kosten hinzufügt. Jede Alternative, die die Batterie- und Netzwerkkosten vermeidet, könnte wettbewerbsfähig sein, auch wenn sie ihre eigenen einzigartigen Infrastrukturkosten hat, wie z.B. den orbitalen Start von space-basierten KI-Rechenzentren.
Der Starship-Deflationszyklus
Es ist kein Geheimnis, dass SpaceX das erfolgreichste space-fokussierte Unternehmen ist, das jemals geschaffen wurde. Durch das Entsperren zuverlässiger wiederverwendbarer Trägerraketen hat das Unternehmen die Kosten für das Heben nützlicher Nutzlasten in die Erdumlaufbahn dramatisch reduziert. Die Kosten sind um ~95% gesunken, von ~15.600 $/kg auf unter ~1.000 $/kg in den 17 Jahren seit 2008.
Die neue Super-Schwerlast-Trägerrakete, Starship, wird diesen Trend wahrscheinlich fortsetzen und letztendlich die Startkosten in den Bereich von ~100 $/kg bringen.

Quelle: ARK Invest
Was noch nicht vollständig verstanden wurde, ist, dass dies nicht nur Satelliten oder Raummissionen billiger macht; es verändert radikal, was im Weltraum getan werden kann.
Wenn das Platzieren eines Kilogramms Material im Weltraum nur 100 $ kostet, wird das Senden von allem Nützlichen oder Leichten in den Orbit wirtschaftlich tragbar. Dies gilt für Dünnschicht-Solarzellen, die sehr leicht sein können, wenn sie nicht durch Glas oder starre Metallrahmen gegen irdisches Wetter geschützt werden müssen.
Dies gilt auch für Materialien, die auf pro-Kilogramm-Basis sehr profitabel sind, wie z.B. Computer-Chips.
Zum Beispiel kostet ein voller GB300 NVL72-Rack/Schrank von NVIDIA so viel wie 4 Mio. $, aber wiegt nur etwa 1,8 metrische Tonnen (4.000 Pfund). Die Kosten für das Senden solchen Materials in den Orbit bei 100 $/kg betragen nur 180.000 $ – fast ein Rundungsfehler im Vergleich zu den Hardwarekosten.
Natürlich wäre der Gesamtpreis höher, wenn man die unterstützende Ausrüstung (Abschirmung, Kühlung, Stromerzeugung usw.) berücksichtigt, aber es bedeutet, dass das Bekommen eines KI-Rechen-Systems in den Orbit die Kosten nicht massiv aufblähen wird. Es ist wahrscheinlich, dass der Wendepunkt bei etwa 500 $/kg Startkosten liegt.

Quelle: ARK Invest
Als zusätzlicher Bonus könnte der Aufstieg der Orbitalen KI die Wirtschaftlichkeit der wiederverwendbaren Raketen weiter verbessern, indem ein massiver Markt für Wartungsdienste geschaffen wird. Während die Fertigstellung des Starlink-Konstellations möglicherweise 11-mal die kumulative Startmasse erfordert, die von SpaceX bis 2025 gehoben wurde, würde 100 GW KI-Rechenleistung die Nachfrage nach orbitaler Hebung um weitere 60-mal erhöhen. Im Gegenzug würde dies die Startkosten weiter senken.

Quelle: ARK Invest
Warum Orbital-KI strukturelle Vorteile hat
Swipe to scroll →
| Treiber | Terrestrische KI-Rechenzentren | Orbitale KI-Rechenzentren | Warum es wichtig ist |
|---|---|---|---|
| Stromverfügbarkeit | Eingeschränkt durch Netzkapazität, Treibstoffversorgung und Genehmigungszeiträume | Nahezu kontinuierliches Solarpotenzial im richtigen Orbit; keine Netzverbindung erforderlich | Orbitale Rechenzentren umgehen den langsamsten Teil der KI-Skalierung: Strom + Genehmigungen |
| Kapazitätsfaktor | Solarenergie ist intermittierend; Festigung erfordert Speicherung oder dispatchbare Erzeugung | Hohe Solarenergie-Verfügbarkeit mit reduzierter Intermittenz gegenüber bodengestützter Solarenergie | Reduziert oder eliminiert Speicher-Kapazitätsausgaben für Stromfestigung |
| Kühllast | Hohe HVAC/Wärmeableitungslasten; Wassereinschränkungen in vielen Regionen | Strahlungskühlung über große Wärmestrahler; kein Wasserverbrauch erforderlich | Mehr Rechenleistung pro Watt, wenn die Kühlenergie geringer ist (aber die Masse des Wärmestrahlers zählt) |
| Latenz & Bandbreite | Exzellent für interaktive Workloads; Glasfasernetze sind dicht | Am besten geeignet für Batch/HPC, Training oder asynchrone Inferenz; verlässt sich auf Satcom-Links | Orbitale KI eignet sich wahrscheinlich zunächst für latenzunempfindliche Workloads |
| Bereitstellungszeit | Land, Genehmigungen, Netzwerkaufbau und Bau dauern Jahre | Der Startzyklus wird zum begrenzenden Faktor, wenn standardisierte Plattformen existieren | Ein “Herstellen + Starten”-Modell kann die Zeit bis zur Kapazität komprimieren |
| Haftungsrisiken | Genehmigungen, Netzwerkkongestion, lokale Wasser-/Thermallimits | Strahlung, Trümmer/Kollision, Wartung und Entsorgung am Ende der Lebensdauer | Orbitale Ökonomie hängt von der Minderung weltraum-spezifischer Ausfallmodi ab |
| Wirtschaftlicher Drehpunkt | Strom + Netzwerkanbindung + Kühlungskapazitätsausgaben dominieren die Skalierung | Start + Plattformmasse + Betriebszeit im Orbit dominieren die Skalierung | Der Übergang tritt ein, wenn $ / kg und standardisierte Plattformen die gesamten gelieferten Rechenkosten senken |
Perfekt für Solarenergie
Solarenergie ist im Weltraum reichlich vorhanden – bis zu 4-mal die Ausgabe für die gleiche Nennkapazität, dank direktem Sonnenlicht ohne atmosphärischen Verlust. Im richtigen Orbit ist sie auch viel zuverlässiger, strahlt 24/7 konstant.
Dies entfernt die Einschränkungen, die von bodengestützter Solarenergie gelitten werden. Theoretisch könnte dies die endgültige Form der Solarenergieerzeugung sein. Allerdings erfordert es aufgrund der Schwierigkeit, diese Energie zurück zur Erde zu bringen, ultrabillige Startkosten oder die Herstellung im Orbit, um wirtschaftlich tragbar zu sein.
Alternativ könnten einfachere orbitale Spiegel, die auf bodengestützte Solarkraftwerke strahlen, wie von Reflect Orbital befürwortet, die Licht-zu-Mikrowellen-Umwandlungsverluste umgehen.
Im Gegensatz dazu erfordert die Verwendung von Energie im Orbit keine dieser Schritte. Sobald die Berechnung abgeschlossen ist, können die Ergebnisse mit Standard-Telekommunikationsmethoden zurück zur Erde gesendet werden, wobei die Satellitenbandbreite schnell verbessert wird.
Natürliche Kühlung
Ein weiterer einzigartiger Vorteil von space-basierten KI-Rechenzentren ist die Kühlung. Wenn nicht der Sonnenstrahlung ausgesetzt, ist der Weltraum extrem kalt, bei -148°F (-100°C) für ein Raumfahrzeug im Schatten der Erde oder seiner eigenen Arrays.
Ein erheblicher Teil des terrestrischen Rechenzentrums-Energieverbrauchs kommt von der Kühlung. Die Platzierung in der Arktis oder even in der Stratosphäre wurde vorgeschlagen, so dass der Weltraum einen natürlichen Vorteil bietet. Dies erfordert wahrscheinlich massive passive Kühlungssysteme, um die Wärme abzustrahlen, aber dies ist technisch machbar.
Ubiquitäre Satellitenintelligenz
SpaceX und sein Breitband-Satelliten-Netzwerk haben die orbitale Landschaft vollständig verändert, wobei Starlink-Satelliten etwa die Hälfte aller Satelliten im Orbit ausmachen.

Quelle: ARK Invest
Dies hat zu einem exponentiellen Rückgang der Satellitenbandbreitenkosten geführt, der zwischen 2020-2024 fast 100-mal gesunken ist, wobei weitere Gewinne durch Starship-Flüge erwartet werden.

Quelle: ARK Invest
Die Telekommunikation im Weltraum wird so allgegenwärtig und billig, dass orbitale Rechenzentren bestehende Netze verwenden können, um mit der Erde zu kommunizieren, ohne dass dedizierte Kapazitäten erforderlich sind. Darüber hinaus könnte ein dichtes Satelliten-Netzwerk zu zusätzlichen Wartungsdiensten wie Betankung oder “Abschleppen” führen, die die Lebensdauer dieser Vermögenswerte verlängern.
Trennung von Weltraum- und Land-Infrastrukturen
Da orbitale KI-Rechenzentren nicht mit dem regulären Netz verbunden sind, werden sie die Strompreise auf der Erde nicht beeinflussen. Wenn überhaupt, wird die zusätzliche Nachfrage nach Solartechnologie helfen, die Solarenergie global günstiger zu machen.
Darüber hinaus müssen diese Zentren nicht auf terrestrische Netzwerkaufbau warten, was Jahre dauern kann. Der Prozess vermeidet auch die Nutzung von Land und wertvollen Wasserressourcen, was die Gesamtwirtschaftlichkeit verbessert.
Investition in Orbital-KI
Broadcom
(AVGO )
Neben GPU-Herstellern und KI-Modellentwicklern sind Unternehmen, die Konnektivitäts- und spezielle IT-Ausrüstung für Rechenzentren herstellen, große Gewinner des KI-Booms. Ein großes Unternehmen in dieser Kategorie ist Broadcom, ein Technologie-Riese mit Wurzeln, die bis in die Dotcom-Ära zurückreichen.
Nach der Fusion von Broadcom und Avago im Jahr 2016 sind die Aktivitäten des Unternehmens in Infrastruktur-Software und Konnektivitäts-Hardware (drahtlos, Server, KI-Netzwerke usw.) aufgeteilt.

Quelle: Broadcom
Eine weitere wachsende KI-bezogene Aktivität ist das Design und die Herstellung von XPUs, die CPU, GPU und Speicher in einem einzigen elektronischen Gerät kombinieren. Broadcom nutzt seine Erfahrung in der Herstellung von ASICs (Application-Specific Integrated Circuits), um Chips zu erstellen, die speziell für KI-Rechnen konzipiert sind.

Quelle: Broadcom
Diese Arten von dichten, energieeffizienten Recheneinheiten sind ein perfekter Match für orbitale KI, die ein optimiertes Gleichgewicht zwischen Leistung und Gewicht erfordert. Die höhere Energieeffizienz von ASICs ist auch ein Plus, da ein geringerer Stromverbrauch die Masse der im Orbit benötigten Solarmodule reduziert.
Anleger-Takeaways:
- Kernthese: Die KI-Bindung wechselt von Rechenleistung zu Stromverfügbarkeit und Genehmigungszeiträumen; orbitale Rechenzentren sind ein potenzieller struktureller Ausweg.
- Wirtschaftlicher Auslöser: Startkosten, die ~500 $/kg erreichen, erweitern den möglichen Nutzlast-Mix (Solarenergie, Strahler, Abschirmung) für profitable orbitale Rechenzentren erheblich.
- Frühe Gewinner: “Picks-and-Shovels”-Förderer – ASIC-/XPU-Designer, Photonik-/Co-Verpackungs-Optik und Thermal-Management – profitieren, bevor es ein “reines Orbital-Cloud”-Unternehmen gibt.
- Haftungsrisiken: Strahlungshärtung, Logistik der Wartung im Orbit und Kollisions-/Trümmer-Risiken können die Ökonomie beeinträchtigen, auch wenn die Startkosten sinken.
- Zeitrahmen: Behandeln Sie orbitale KI als langfristiges Infrastruktur-Thema; konzentrieren Sie sich auf Unternehmen, die terrestrische KI-Skalierung heute monetarisieren und Optionen für Weltraum-Workloads aufbauen.










