Artificiell intelligens
NVIDIA (NVDA) Spotlight: Från Graphics Giant till AI Titan
Securities.io har rigorösa redaktionella standarder och kan få ersättning från granskade länkar. Vi är inte en registrerad investeringsrådgivare och detta är inte investeringsrådgivning. Vänligen se vår anknytning till anknytning.
AI-jätten
Om teknikinvesterarnas uppmärksamhet i mer än ett decennium har legat på "Big Tech" (Microsoft (MSFT ), Google (GOOG ), Facebook (META ), etc.), har de senaste åren sett en markant förändring mot hårdvara framför mjukvara. Det första tecknet var den spektakulära ökningen av Tesla (TSLA ) från en nischad kultliknande aktie till ett av de största företagen i världen.
Men det skulle finnas ett företag som sitter vid gränsen mellan mjukvara och hårdvara som skulle fånga lika bra, om inte starkare, avkastning: NVIDIA (NVDA ).
Nu mest ses som ett AI-företag med plötslig framgång, NVIDIA har faktiskt tålmodigt byggt sin unika teknologi och marknadsposition under 20-30 år. Detta kan ge det en stark position att förbli en dominerande aktör inom teknikvärlden under de kommande åren.
NVIDIAs väg till framgång
CPU vs GPU
Länge var NVIDIA ett framgångsrikt men nischat maskinvaruföretag som specialiserat sig på att producera grafikkort eller grafikprocessorer (GPU). På den tiden sågs GPU:er som ett viktigt datorhårdvaruelement men sekundärt till den så viktiga centralprocessorn (CPU).
CPU:er är designade för att utföra mycket snabba beräkningar som kräver att de görs en efter en, vilket gör dem bra på komplexa beräkningar.
Däremot är GPU:er mindre kraftfulla men designade för att utföra många parallella beräkningar samtidigt, vilket gör dem bättre på att hantera stora mängder data.
Under denna period från 1990-talet till 2010-talet gillar CPU-tillverkare Intel (INTC ) regerade över branschen, medan högkvalitativa GPU:er oftast bara användes av spelare och grafiska designers för avancerade PC.
Bygga ett GPU-företag
Tidigt, NVIDIA-grundare Jensen Huang och hans medgrundare resonerade att beräkningstakten skulle överträffa CPU-kapaciteten. Jensen var avgörande för att utveckla de första GPU:erna för Sun Microsystems idag Oracle (ORCL ).
Han skulle sedan bli en av medgrundarna till NVIDIA 1993, och anamma PC-revolutionen i början av 1990-talet.
"Vi tänkte, du vet, kanske 3D-grafik skulle vara det som skulle vara riktigt coolt. Och för allra första gången har du en plattform som både kan vara en dator och användas till, du vet, vad du än vill använda den till. Du kan också använda den för att spela spel. Och vi behöver bara bygga ett chip som gör det möjligt att spela spel.
Ingen av oss hade ens sett en PC tidigare. Så vi var tvungna att gå och köpa en PC. Vi köpte en Gateway 2000. Ingen vet ens hur man programmerar Windows eller DOS. Ingen har ens sett DOS. Och så vi var tvungna att riva det isär, börja lära oss om branschen."
Det är roligt att tänka sig att spel, så här i efterhand, inte var en särskilt "seriös" marknad på den tiden jämfört med mer lukrativa och större företagsfokuserade affärsmodeller. De första korten var inte en kommersiell succé. Deras 2nd generationens GPU var bättre men blev plötsligt föråldrad när marknaden vände sig mot Microsofts DirectX-arkitektur för videospel.
I slutändan tog det NVIDIA sex år och tre produktlinjer att hitta en produktmarknad som passade, med många nära-döden-händelser för företaget.
Framgång skulle komma med Riva 128: under de första fyra månaderna sålde den 1 miljon enheter. Det skulle följas av en lång rad framgångsrika grafikkortsdesigner, inklusive GeForce-serien, till denna dag den dominerande aktören på marknaden vid sidan av AMD: s (AMD ) radeon.

Källa: UKöp
CUDA & Crypto
År 2006 släppte NVIDIA, som nu är en väletablerad GPU-ledare, CUDA, ett generellt programmeringsgränssnitt för NVIDIAs GPU:er, vilket öppnade dörren för andra användningsområden än spel. Detta gjordes eftersom vissa forskare redan använde GPU:er för att utföra beräkningar istället för de vanliga superdatorerna.

Källa: NVIDIA
"Forskare insåg att genom att köpa detta spelkort som heter GeForce, lägger du till det på din dator, har du i princip en personlig superdator. Molekylär dynamik, seismisk bearbetning, CT-rekonstruktion, bildbehandling – en hel massa olika saker.”
Denna bredare användning av GPU:er, och mer specifikt NVIDIA-hårdvara, skapade en positiv feedback-loop baserad på nätverkseffekter: Ju fler användningsområden, desto fler slutanvändare och programmerare är bekanta med det, desto mer försäljning, desto mer FoU-budget, desto mer acceleration i beräkningshastighet, desto fler användningsområden, etc.

Källa: NVIDIA
Idag innehåller den installerade basen hundratals miljoner CUDA GPU:er.

Källa: NVIDIA
Detta skulle inte bara visa sig vara mycket användbart för forskare, utan en ny teknik skulle göra stor användning av GPU-parallellberäkning: blockchain och krypto.
Kryptoboom
Krypto blev nu lite åsidosatt av AI-entusiasm och var den första storskaliga tillämpningen av GPU bortom spel och vetenskaplig forskning. Många blockkedjor och kryptoprojekt kräver mycket datorkraft. Snabbt blev NVIDIA GPU:er den centrala hårdvaran för att utföra dessa beräkningar.
Detta skapade en boom i NVIDIA-försäljningen, och företagets aktie började stiga i samklang med den bildade kryptoboomen, med aktiekursen som ökade mer än 10x.
(NVDA )
Aktiekursåtgärderna från kryptos tappade lite kraft 2022 innan marknaderna insåg att NVIDIA hade byggt upp en anmärkningsvärd AI-strategi under många år.
AI
Neurala nätverk
Från början av 2010-talet hade forskare börjat distribuera GPU:er för att studera neurala nätverk. Dessa är en typ av beräkningsmetod som skiljer sig från vanlig programmering och var belönades med 2 olika Nobelpriser 2024, i fysik och medicin.
Neurala nätverk är den tekniska grunden för vad som idag brukar kallas "AI".
2009 hjälpte en av mina dåvarande studenter, Ian Goodfellow, som var min student, mig att bygga en GPU-server i hans studentrum. Och den servern slutade vara vad vi använde för våra första djupinlärningsexperiment för att träna neurala nätverk.
Vi började se 10x eller till och med 100x speedups träna neurala nätverk på GPU: er eftersom vi kunde göra tusen eller 10,000 XNUMX saker parallellt, snarare än ett steg efter det andra.
Andrew Ng - DeepLearning.AI grundare och managing general partner för AI Funds, i en intervju med Sequoia
Detta var före AlexNet, det första genombrottet inom datorbildsigenkänning 2012, och år före AlphaGo.
Pivoterar NVIDIA till AI
NVIDIA insåg AI:s potential tidigt, långt innan någon annan, bland specialiserade forskare, brydde sig om neurala nätverk.
Detta var vid den tiden en riskabel övergång till en oprövad, knappt existerande sektor, eller som Jensen Huang uttryckte det:
"Vi investerar i marknader värda noll miljarder dollar."
Under 2016 och 2017 släpptes NVIDIA than Pascal och Volta arkitekturer, den första GPU-baserade AI-acceleratorn, medan Volta introducerade Tensor Cores, som accelererade djupinlärningsuppgifter med upp till 12 gånger.
Det var en grossist pivot i denna nya riktning. När vi svängde skeppet i den riktningen sökte vi upp varenda AI-forskare på planeten.
Och vår plattform som var användbar för dem var den positiva feedback som vi fick då. Vilket är anledningen till att jag är vän med, ni vet, alla världens stora AI-forskare.
De var alla hjälpsamma med att ge mig de tidiga indikationerna på framtida framgångar på vägen och du måste göra en stor grej av dessa små vinster.
Detta skulle föregå uppbyggnaden av AI-beräkningsinfrastruktur, som dyker upp massivt i allmänhetens medvetande 2023, med lanseringen av populära LLMs (Large Language Models) som Chat GPT.
Men detta byggdes faktiskt över den långsamma och ofta bortglömda utvecklingen av allt kraftfullare AI-dedikerade GPU:er av NVIDIA sedan 2016.

Källa: NVIDIA
En annan anmärkningsvärd sak med utvecklingen av AI-datorkraft är att den följer en exponentiell lag istället för den mer linjära Moores lag för CPU. Detta beror inte bara på att GPU-hårdvaran blir bättre, utan den erforderliga processorkraften har minskat över radikala förbättringar av hur neurala nätverk tränas.
Dessutom gör mer tillgänglig data träningen mer effektiv, vilket ger forskare många vinklar att arbeta parallellt för att öka prestationerna.
Detta har lett till en radikal minskning av energiförbrukningen för att träna samma GPT-modell över tid, 350 gånger mindre på 8 år, och en ännu mer extrem minskning av energi som krävs för att göra en förfrågan till dessa LLM:er.

Källa: NVIDIA
NVIDIA-partnerskap
NVIDIA har sedan starten varit ett företag som är djupt förknippat med branschen. Istället för ett vertikalt integrerat företag strävar man efter att etablera djupa band med de bästa, samtidigt som man förblir rakknivsfokuserad på sina egna konkurrensfördelar.
Till exempel är NVIDIA en så kallad "fableless" hårdvarutillverkare, med fokus på design och koncept, och överlåter till världsledande halvledar "fab" som TSMC (TSM ) att producera sina GPU:er.
Genom att inte utveckla sina egna LLMs eller AI-system är NVIDIA också en pålitlig partner för praktiskt taget alla "Big Tech" och AI-startups, som ser det som en viktig partner snarare än en potentiell konkurrent. Detta ger i sin tur NVIDIA försäljningsskala för att fortsätta återinvestera i FoU och hålla sig på topp ur en teknisk synvinkel.
Detta har visat sig vara det rätta valet, med NVIDIA som den största mottagaren av den mest imponerande investeringsrunda (capex) i teknikindustrins historia.
AI capex förväntas att nå så mycket som 200 miljarder USD 2025, ovanpå en ständigt växande kumulerad capex av de största teknikföretagen i världen sedan 2016.

Källa: Sherwood
Finans
NVIDIAs tillväxt bara från 2023 till 2024 har varit otrolig för ett företag av den storleken:
- Intäkterna har ökat med 126 %, från 27 miljarder dollar till 60 miljarder dollar.
- Rörelseresultatet tredubblades (311 %) från 9 miljarder dollar till 37.1 miljarder dollar
- Bruttomarginalen ökade från 59.2 % till 73.8 %
Sammantaget är företaget rikt värderat, men inte ens så mycket på grund av dess vinsttillväxt. Ändå, med ett P/E-tal över 60 och en direktavkastning på bara 0.03 %, antar investerare som köper NVIDIA en hel del framtida tillväxt för att motivera den nuvarande aktiekursen.

Källa: NVIDIA
Framtiden för NVIDIA
Hållbar tillväxt?
NVIDIAs tresiffriga tillväxttakt har varit häpnadsväckande och återspeglas i företagets aktiekurs. Naturligtvis har allt gott ett slut en dag, och investerare blir oroliga för att detta kan ske förr snarare än senare.
Samma oro var redan högljudd när NVIDIA-försäljningen blomstrade från kryptoförsäljning eller i de tidiga stadierna av AI-boomen, så pessimism är inte nödvändigtvis en sund investeringsstrategi.
In en intervju om BG2Pod podcast, förklarade Huang att världen behöver uppdatera datacenter och datorer till ett värde av upp till $1 150 för att integrera och anpassa sig till AI. Och att det hittills bara har spenderats XNUMX miljarder dollar av den summan.
Så, enligt honom, finns det fortfarande gott om utrymme för NVIDIA att fortsätta växande försäljning, även om det bara beror på befintliga datorbehov. Det var innan ännu fler applikationer för AI blev mainstream, som t.ex själv köra bil.
Sådan oro för den totala efterfrågan ignorerar också att alla industrier i slutändan sannolikt kommer att använda AI på flera nivåer på ett eller annat sätt, inklusive sektorer som sjukvård som representerar en tvåsiffrig procentandel av BNP.

Källa: NVIDIA
Blackwell
I mars 2024 släppte NVIDIA Blackwell-plattformen, "gör det möjligt för organisationer överallt att bygga och köra generativ AI i realtid på biljoner stora språkmodeller till upp till 25 gånger lägre kostnad och energiförbrukning än sin föregångare.".

Källa: NVIDIA
Detta är ett mycket viktigt steg, eftersom energiförbrukningen snabbt blir en av de största problemen för AI-fokuserade företag, vilket illustreras av det senaste Microsoft-avtalet om att återöppna ett helt kärnkraftverk och använda det Alla Produkter dess uteffekt under de kommande 20 åren till ett i förväg överenskommet pris.
In-house design
En risk för NVIDIA är att även om det är en nyckelpartner till världens största företag, är det också en mycket dyr och lönsam sådan (70 % bruttomarginal). Så när företag med storleken och kompetensen Alphabet/Google spenderar hundratals miljarder dollar på AI-chips, är de frestade att göra det internt.
Och detta är inte bara hypotetiskt, med t.ex Tesla har utvecklat sin egen hårdvara genom att anlita toppdesigners från NVIDIA-konkurrenten AMD. Fram till 2019 använde Tesla istället NVIDIA Drive PX 2 AI-datorplattformen. Eftersom Tesla till synes är riktigt nära att faktiskt kommersialisera robotaxi, detta kan bli en massiv missad försäljning för NVIDIA.
Samtidigt kan Teslas fall vara snarare ett undantag från regeln, med Tesla och Elon Musks andra företag, som SpaceX, ökända för att alltid leta efter mer vertikal integration och en starkare kontroll över sin hårdvara.
Företag som är mindre erfarna inom hårdvara eller mer mjukvara och/eller marknadsföringsfokuserade, som Facebook eller Microsoft, kommer sannolikt att klara sig bra genom att förlita sig på den finaste och senaste NVIDIA-tekniken.
Dessutom byggs och kodas många AI-modeller för närvarande med antagandet att de kommer att köras på NVIDIA-arkitekturer, och AI-programmerarna har erfarenhet av NVIDIAs hårdvara, vilket båda är värdefulla affärsmässiga fördelar för företaget.
AI-marknadsrisker
AI-marknaden som helhet kan vara en större risk som NVIDIAs utmärkta ledning har mindre kontroll över. Den blomstrar för tillfället. Det finns dock en växande oro för att de AI-applikationer som släppts inte har lyckats omvandlas till massiva nya intäkter som iPhone gjorde för Apple på den tiden.
Detta är sannolikt bara ett tecken på att tekniken fortfarande hittar sina spår och utvecklar sin marknad.
Men skulle den här situationen kvarstå för länge, och vi skulle kunna riskera en situation som i slutet av 1990-talet, där förutsägelserna om vikten av PC och Internet var rätt, men timingen var lite för optimistisk, vilket ledde till pricken -com bubbla poppar.
Visst är Jensen Huang att skriva en autograf på en kvinnas bröst i juni 2024 något överraskande tecken, och kanske lite oroande för investerare som är oroliga för en potentiell finansiell mani kring AI.

Finanshistorien upprepar sig inte nödvändigtvis, men investerare bör noggrant analysera denna risk för NVIDIA och titta på potentiella paralleller med telekom- och internettillverkaren Sun Microsystems (Jensen Huangs första arbetsgivare) år 2000.
Vid 10 gånger intäkterna, för att ge dig en 10-årig återbetalning, måste jag betala dig 100% av intäkterna under 10 år i rad i utdelning. Det förutsätter att jag kan få det av mina aktieägare. Det förutsätter att jag har noll kostnad för sålda varor, vilket är väldigt svårt för ett dataföretag. Det förutsätter noll utgifter, vilket är riktigt svårt med 39,000 XNUMX anställda. (…)
Nu, efter att ha gjort det, skulle någon av er vilja köpa min aktie för $64? Inser du hur löjliga dessa grundantaganden är? Du behöver ingen insyn. Du behöver inga fotnoter. Vad tänkte du?
Scott McNealy – då VD för Sun Microsystems
Som referens är NVIDIAs nuvarande P/S-tal 35.

Källa: YChart
Slutsats
NVIDIA är ett företag byggt på att ta de korrekta beräknade riskerna flera gånger i rad vid rätt tidpunkt, från PC-grafikkort till CUDA-släpp för nya applikationer till att omfamna neurala nätverk tidigt. Detta har gjort dess grundare, Jensen Huang, till något som en rockstjärna inom halvledar- och IT-branschen.
Företagets senaste utveckling har chockat marknaden och skapat massiv entusiasm för aktien i stil med vad bara Tesla kan skryta med under de senaste åren. Detta skapar en enorm möjlighet, vilket många tidiga investerare i Tesla vet, efter att ha mött nästan ett decennium av motståndare som förväntat sig att företaget och dess aktie skulle kollapsa "när som helst nu".
Detta skapar också vissa risker, eftersom AI-boomen ännu inte har genererat den sortens intäkter som motiverar den nuvarande capex och kan uppleva en nedgång innan den blir en fullt etablerad ekonomisk sektor.







