stub Rumbaseret AI: Den næste grænse for cloud-skalering – Securities.io
Følg os

Luftfart

Rumbaseret AI: Den næste grænse for cloud-skalering

mm

Securities.io opretholder strenge redaktionelle standarder og kan modtage kompensation fra gennemgåede links. Vi er ikke en registreret investeringsrådgiver, og dette er ikke investeringsrådgivning. Se venligst vores tilknyttet videregivelse.

Hvorfor AI-infrastruktur flytter ud i kredsløb

I takt med at AI boomer, er der opstået adskillige forsyningsbegrænsninger. Den første var GPU'er, hvor specialiseret hardware gik fra at være en niche i spilbrug til masseadoption i AI-datacentre. Som et resultat heraf har Nvidia (NVDA -2.17%), sektorens leder, har vokset sig til verdens største virksomhed.

Men en anden begrænsning er ved at blive hovedproblemet: energiforsyning.

Dette skyldes, at AI-datacentre nu måles ikke så meget på deres beregningskraft, men på deres strømforbrug. Det er derfor AI-virksomheder kæmper for at genstarte atomkraftværker, sikre de første SMR-prototyper eller Statslige tilsynsmyndigheder sætter nye gasdrevne kraftværker på en hurtig godkendelsesbane.

I takt med at kapløbet om at finde energi til datacentre intensiveres, vendes øjnene mod en anden mulighed: rumbaseret AI, hvilket giver "cloud computing" en helt ny fysisk betydning.

Muligheden for ubegrænset energiforsyning fra satellitter i orbital bane er noget, vi allerede har analyseret grundigt i “Rumbaserede energiløsninger til endeløs ren energi".

Men dette koncept er altid noget begrænset af behovet for at omdanne solenergi til strøm, omdanne denne elektricitet til mikrobølger for at stråle den tilbage ned til Jorden og derefter omdanne den tilbage til strøm.

Dette øger kompleksiteten af ​​kraftsatellitterne, kræver mere jordbaseret infrastruktur og reducerer generelt procedurens effektivitet drastisk, da hver omdannelse til en anden form for energi fører til tab. Dette vil sandsynligvis kun kunne fungere med meget billige opsendelser i orbitalrummet.

Alternativt, hvis strømmen blev brugt direkte i kredsløb, ville dette være meget mere effektivt og blive økonomisk rentabelt hurtigere – især hvis det endelige "produkt" nemt kan sendes tilbage til Jorden.

I teorien kunne datacentre i rummet være den ideelle løsning: de kræver meget strøm, men at sende resultaterne af beregningerne tilbage til Jorden er trivielt, kræver ingen ny infrastruktur og forårsager ikke energitab.

Ideen er ikke kun teoretisk; for eksempel har Alphabet/Google netop annonceret “Projekt Suncatcher", en prototype af et orbitalt AI-beregningssystem, som vi dækkede i "Googles projekt Suncatcher og fremkomsten af ​​orbital kunstig intelligens".

Så, kunne det virke, og hvorfor kunne det være det næste skridt i opbygningen af ​​AI-infrastruktur?

Sammendrag: Orbitale AI-datacentre kunne omgå Jordens flaskehalse i elnettet ved at kombinere næsten kontinuerlig solenergi i rummet med strålingskøling og billig downlinking af resultater. Faldende opsendelsesomkostninger (især fra genanvendelige tunge raketter) er den afgørende faktor – hvilket potentielt kan gøre "rumskyen" konkurrencedygtig, før jordbaserede net kan skaleres hurtigt nok til AI-efterspørgslen.

Kollisionen mellem to tendenser

Løsning af den jordbaserede strømbegrænsning

Der er behov for mere energi end nogensinde før til at drive den menneskelige civilisation, og kommercialiseringen af ​​​​LLM'er har kun øget behovet for nye kraftværker. Indtil videre er det meste af den nyinstallerede elproduktion solenergi.

ARK Invest strømkapacitet

Kilde: ARK Invest

Men dette udgør et problem for jordbaserede elnet, da solenergi kun producerer strøm, når solen skinner, hvilket resulterer i lavere produktion på overskyede dage, om vinteren eller om aftenen. I modsætning hertil kræver strømkrævende kilder som AI-datacentre en kontinuerlig energiforsyning, hvor spidsbelastning ofte forekommer om aftenen og om vinteren.

I teorien kan dette løses med billig energilagring, som f.eks. batteriparker i stor skala. Men i praksis ophæver dette mange af fordelene ved solenergi som en grøn og billigere energikilde.

Fald i energiomkostninger

Kilde: ARK Invest

ARK Invest anslår, at kapitaludgifter til elproduktion skal skaleres mellem ~2 og ~10 billioner dollars inden 2030 for at imødekomme den globale efterspørgsel efter elektricitet. Heraf skal udrulningen af ​​stationær energilagring skal skaleres 19 gange.

Investering i energilagring

Kilde: ARK Invest

Dette vil også kræve massive investeringer i elnettet, hvilket yderligere øger omkostningerne. Ethvert alternativ, der springer batteri- og netomkostninger over, kan være konkurrencedygtigt, selv med sine egne unikke infrastrukturomkostninger, såsom opsendelsen af ​​rumbaserede AI-datacentre i orbital bane.

Starships deflationscyklus

Det er ingen hemmelighed, at SpaceX er den mest succesfulde rumfokuserede virksomhed nogensinde. Ved at frigøre pålidelige genanvendelige løfteraketter har virksomheden dramatisk reduceret omkostningerne ved at løfte nyttige nyttelaster til Jordens kredsløb. Omkostningerne er faldet med ~95%, fra ~$15,600/kg til under ~$1,000/kg i de 17 år siden 2008.

Den nye supertunge løfteraket, Starship, vil sandsynligvis fortsætte denne tendens og i sidste ende bringe opsendelsesomkostningerne op i området ~$100/kg.

SpaceX faldende omkostninger

Kilde: ARK Invest

Hvad der endnu ikke er fuldt ud forstået, er, at dette ikke blot gør satellitter eller rummissioner billigere; det ændrer radikalt det kan gøres i rummet.

Når det kun koster 100 dollars at sende et kilo materiale ud i rummet, bliver det økonomisk rentabelt at sende noget nyttigt eller let nok i kredsløb. Dette gælder for tyndfilms-solceller, som kan være meget lette, når de ikke behøver at blive beskyttet af glas eller stive metalrammer mod vejret på jorden.

Dette gælder også for materialer, der er meget rentable pr. kilo, såsom computerchips.

For eksempel koster et komplet GB300 NVL72 rack/kabinet fra NVIDIA så meget som $4 millioner, men vejer kun omkring 1.8 tons (4,000 lbs). Omkostningerne ved at sende sådant materiale i kredsløb med $100/kg er kun $180,000 - næsten en afrundingsfejl i forhold til hardwareomkostningerne.

Den samlede pris ville selvfølgelig være højere, når man tager højde for understøttende udstyr (afskærmning, køling, strømproduktion osv.), men det betyder, at det ikke vil øge omkostningerne voldsomt foreløbigt at få et AI-computersystem i kredsløb. Det er sandsynligt, at vendepunktet ligger omkring $500/kg af opsendelsesomkostninger.

Lanceringsomkostninger for AI-datacenter

Kilde: ARK Invest

Som en ekstra bonus kan fremkomsten af ​​orbital AI yderligere forbedre økonomien ved genanvendelige raketter ved at skabe et massivt marked at servicere. Mens færdiggørelsen af ​​Starlink-konstellationen muligvis kræver 11 gange den kumulative opmasse, som SpaceX løfter indtil 2025, vil 100 GW AI-beregning øge efterspørgslen efter orbital løfteevne med yderligere 60 gange. Til gengæld vil denne mængde reducere opsendelsesomkostningerne yderligere.

Raketefterspørgsel efter AI

Kilde: ARK Invest

Hvorfor orbital AI har strukturelle fordele

Stryg for at scrolle →

Chauffør Terrestriske AI-datacentre Orbital AI-datacentre Hvorfor det drejer sig om
Strømtilgængelighed Begrænset af netkapacitet, brændstofforsyning og tidsfrister for tilladelser Næsten kontinuerligt solpotentiale i den rigtige bane; ingen netforbindelse Orbital beregning omgår den langsomste del af AI-skalering: strøm + tilladelser
Kapacitetsfaktor Solenergi er intermitterende; sikring kræver lagring eller regulerbar produktion Høj soltilgængelighed med reduceret intermittensitet vs. jordbaseret solenergi Reducerer eller eliminerer lagerinvesteringer til opstramning
Køling over hovedet Høje HVAC/varmeafvisningsbelastninger; vandmangel i mange regioner Radiativ køling via store varmeradiatorer; intet vandbehov Mere beregningskraft pr. watt, når køleenergien er lavere (men radiatormassen betyder noget)
Latens og båndbredde Fremragende til interaktive arbejdsbyrder; fiberbackbones er tætte Bedst egnet til batch/HPC, træning eller asynkron inferens; er afhængig af satcom-links Orbital AI starter sandsynligvis med ikke-latensfølsom arbejdsbyrder
Implementeringshastighed Jord, tilladelser, netopgraderinger og byggeri tager år Startkadens bliver den afgørende faktor, hvis der findes standardiserede platforme. En "produktion + lancering"-model kan komprimere tid til kapacitet
Hårde risici Tilladelser, netbelastning, lokale vand-/termiske grænser Stråling, affald/kollision, service og bortskaffelse ved udtjent levetid Orbitaløkonomi afhænger af afbødning rumspecifikke fejltilstande
Økonomisk hængsel Kapitaludgifter for strøm + sammenkobling + køling dominerer skalering Opsendelse + platformmasse + oppetid i kredsløb dominerer skalering Crossoveren ankommer, når $/kg og standardiserede platforme reducerer den samlede leverede datakraft

Perfekt til solcelleanlæg

Solenergi er rigeligt tilgængelig i rummet – op til 4 gange så stor som den samme nominelle kapacitet takket være direkte sollys uden atmosfærisk tab. I den rigtige bane er den også meget mere pålidelig og skinner konstant døgnet rundt.

Dette fjerner de begrænsninger, som landbaseret solenergi har. I teorien kunne dette være den endelige form for solenergiproduktion. Men på grund af vanskeligheden ved at bringe denne energi tilbage til Jorden, vil det kræve ultra-billige opsendelsesomkostninger eller produktion i kredsløb for at være økonomisk rentabelt.

Alternativt kan enklere orbitale spejle, der skinner på landbaserede solcelleparker, som forsvaret af Reflektere Orbital, springer muligvis tabene ved konvertering fra lys til mikrobølge over.

Hvis der derimod bruges strøm i kredsløb, er ingen af ​​disse trin nødvendige. Når beregningen er færdig, kan de resulterende data sendes tilbage til Jorden ved hjælp af standard telekommunikationsmetoder, hvor satellitbåndbredden forbedres hurtigt.

Naturkøling

En anden unik fordel ved rumbaserede AI-datacentre er køling. Når rummet ikke udsættes for solens stråling, er det ekstremt koldt og ligger på -100 °C for et rumfartøj i skyggen af ​​Jorden eller dets egne rumfartøjer.

En betydelig del af energiforbruget i jordbaserede datacentre kommer fra køling. Placering af dem i Arktis eller selv stratosfæren er blevet foreslået, så rummet tilbyder en naturlig fordel. Dette vil sandsynligvis kræve massive passive kølesystemer til at udstråle varme, men det er teknisk muligt.

Allestedsnærværende satellitintelligens

SpaceX og dets bredbåndssatellitnetværk har fuldstændig ændret det orbitale landskab, hvor Starlink-satellitter udgør omtrent halvdelen af ​​alle satellitter i kredsløb.

Starlink ARK Invest

Kilde: ARK Invest

Dette har forårsaget et eksponentielt fald i omkostningerne til satellitbåndbredde, der er faldet næsten 100 gange mellem 2020-2024, med yderligere gevinster forventet fra Starship-flyvninger.

Fald i satellitomkostninger

Kilde: ARK Invest

Telekommunikation i rummet bliver så allestedsnærværende og billig, at orbitale datacentre kan bruge eksisterende netværk til at kommunikere med Jorden uden behov for at opbygge dedikeret kapacitet. Desuden kan et tæt satellitnetværk føre til yderligere vedligeholdelsestjenester, såsom optankning eller "bugsering", hvilket ville øge levetiden for disse aktiver.

Adskillelse af rum- og landinfrastruktur

Fordi orbitale AI-datacentre ikke er forbundet til det almindelige elnet, vil de ikke påvirke elpriserne på Jorden. Hvis noget, vil den ekstra efterspørgsel efter solteknologi bidrage til at gøre solenergi billigere globalt.

Derudover behøver disse centre ikke at vente på opgraderinger af det jordbaserede elnet, hvilket kan tage år. Processen undgår også brug af jord og værdifulde vandressourcer, hvilket forbedrer den samlede økonomi.

Investering i orbital kunstig intelligens

Broadcom

Broadcom Inc. (AVGO -2.82%)

Udover GPU-producenter og AI-modeludviklere er virksomheder, der producerer konnektivitet og specialiseret IT-udstyr til datacentre, de store vindere af AI-boomet. En stor virksomhed i denne kategori er Broadcom, en tech-gigant med rødder tilbage til dot-com-æraen.

Efter fusionen af ​​Broadcom og Avago i 2016 er virksomhedens aktiviteter opdelt mellem infrastruktursoftware og tilslutningshardware (trådløs, servere, AI-netværk osv.).

Broadcom-oversigt

Kilde: Broadcom

En anden voksende AI-relateret aktivitet er design og fremstilling af XPU'er, som samler CPU, GPU og hukommelse i én elektronisk enhed. Broadcom bruger sin erfaring med at producere ASIC'er (applikationsspecifikke integrerede kredsløb) til at skabe chips designet specifikt til AI-databehandling.

Broadcom XPU-systemer

Kilde: Broadcom

Disse typer kompakte, energieffektive computerenheder er et perfekt match til orbital AI, som kræver en optimeret balance mellem ydeevne og vægt. ASIC'ernes højere energieffektivitet er også et plus, da lavere strømforbrug reducerer massen af ​​solpaneler, der er nødvendige i kredsløb.

Investor Takeaways:

  • Kerneafhandling: AI's bindingsbegrænsning skifter fra beregning til strømtilgængelighed og tilladelsesfrister; orbital beregning er en potentiel strukturel løsning.
  • Økonomisk udløser: Lanceringsomkostningerne nærmer sig ~500 USD/kg væsentligt udvide den mulige nyttelastmix (solenergi, radiatorer, afskærmning) til rentable implementeringer af orbitale databehandlingssystemer.
  • Tidlige vindere: "Hakke-og-skovle"-aktivere—ASIC/XPU-designere, fotonik/sampakket optikog varmestyring—fordel før der findes nogen "ren orbital sky" offentligt.
  • Vigtigste risici: Strålingshærdning, logistik for service i kredsløb og risiko for affald/kollisioner kan undergrave økonomien, selvom opsendelsespriserne falder.
  • Tidshorisont: Behandl orbital AI som en infrarødt tema med lang varighedfokus på virksomheder, der tjener penge på jordbaseret AI-skalering i dag, samtidig med at de skaber mulighed for at udnytte arbejdsbyrder i rummet.

Seneste Broadcom (AVGO) aktienyheder og udvikling

Jonathan er en tidligere biokemiker, der har arbejdet med genetisk analyse og kliniske forsøg. Han er nu aktieanalytiker og finansskribent med fokus på innovation, markedscyklusser og geopolitik i sin publikation 'Det eurasiske århundrede".

Annoncør Disclosure: Securities.io er forpligtet til strenge redaktionelle standarder for at give vores læsere nøjagtige anmeldelser og vurderinger. Vi kan modtage kompensation, når du klikker på links til produkter, vi har anmeldt.

ESMA: CFD'er er komplekse instrumenter og kommer med en høj risiko for hurtigt at tabe penge på grund af gearing. Mellem 74-89 % af detailinvestorkonti taber penge ved handel med CFD'er. Du bør overveje, om du forstår, hvordan CFD'er fungerer, og om du har råd til at tage den høje risiko for at miste dine penge.

Ansvarsfraskrivelse for investeringsrådgivning: Oplysningerne på denne hjemmeside er givet til uddannelsesformål og udgør ikke investeringsrådgivning.

Handelsrisiko Ansvarsfraskrivelse: Der er en meget høj grad af risiko forbundet med handel med værdipapirer. Handel med enhver form for finansielt produkt inklusive forex, CFD'er, aktier og kryptovalutaer.

Denne risiko er højere med kryptovalutaer på grund af, at markeder er decentraliserede og ikke-regulerede. Du skal være opmærksom på, at du kan miste en betydelig del af din portefølje.

Securities.io er ikke en registreret mægler, analytiker eller investeringsrådgiver.