5月22日,全球資本市場的“大網(wǎng)紅”英偉達發(fā)布了2025財年第一財季(截至2024年4月28日)的報告。
數(shù)據(jù)顯示,本季度英偉達業(yè)績?nèi)娲蟪A期,尤其是在AI加速擴張的驅(qū)動下,數(shù)據(jù)中心業(yè)務更是表現(xiàn)亮眼。具體來看,報告期內(nèi)英偉達錄得營收260.4億美元,同比增長262%,其中數(shù)據(jù)中心業(yè)務營收226億美元,同比增長427%,營收占比87%;與此同時,受益于數(shù)據(jù)中心業(yè)務的高利潤驅(qū)動,報告期內(nèi)公司錄得凈利潤148.8億美元,同比增長628%。

在財報發(fā)布前,市場對英偉達本季度業(yè)績飆升已經(jīng)有了較為明確的預期,受此影響,公司股價在美股盤前僅小幅上漲了0.02%;但在業(yè)績公布后,全面超預期的財務數(shù)據(jù)還是給投資者帶來了不小的驚喜,美股盤后,公司股價突破1000美元,大幅上漲6.05%。
對游戲愛好者而言,英偉達并不陌生,其是全球游戲顯卡的龍頭。事實上,在很長一段時間里,游戲GPU及相關產(chǎn)品也確實是英偉達的主要收入來源。2016財年,公司總營收50.1億美元,其中游戲GPU業(yè)務達到28.18億美元,數(shù)據(jù)中心業(yè)務則為3.39億元。
但近幾年,隨著云計算的逐漸興起,遠程辦公、挖礦熱潮等推動英偉達數(shù)據(jù)中心GPU業(yè)務相關的收入快速增長。2023財年(2022年2月-2023年1月),英偉達數(shù)據(jù)中心業(yè)務首度營收超過游戲,成為公司的第一大業(yè)務,當年英偉達總營收269.74億美元,數(shù)據(jù)中心產(chǎn)品150.05億美元。
自此,英偉達數(shù)據(jù)中心業(yè)務開啟狂飆模式。
2024財年,在大模型對GPU需求暴漲的大背景下,英偉達總營收暴漲126%至609.22億美元,而數(shù)據(jù)中心業(yè)務的營收同比則激增217%至475.25億美元,在營收結(jié)構(gòu)中的占比接近80%;而在*新一季的財報中,其數(shù)據(jù)中心業(yè)務更是同比大幅增長了427%,營收占比進一步增加至87%。

圖:英偉達數(shù)據(jù)中心產(chǎn)品營收增長
數(shù)據(jù)中心GPU業(yè)務的持續(xù)放量,推動英偉達身份屬性從硬件廠商向AI算力龍頭轉(zhuǎn)變。新的定位為其在資本市場帶來了巨大的估值想象空間,推升公司股價創(chuàng)下兩年五倍的神話,總市值更是躍升到2萬億美元之上。
英偉達的崛起成為了AI浪潮下*真實的寫照——緊握AI時代的鑰匙,帶來意想不到的機會空間。那么,英偉達為何可以成為這一波AI浪潮下的*大受益者?
英偉達崛起背后:算力需求的激增
我們認為,英偉達業(yè)績的爆發(fā)主要受益于AI行業(yè)對算力需求的激增。
2022年底,ChatGPT的面世,正式將AI帶入大模型時代。海內(nèi)外大語言模型的快速涌現(xiàn)和迭代、模型性能的提升,使得訓練和推理持續(xù)擴張,帶動算力需求呈現(xiàn)出指數(shù)級增長趨勢。
海通證券指出,以OpenAI為例,訓練一次1750億參數(shù)的GPT-3大約需要的算力約為3640PFlops-day,共使用了1024塊A100(GPU)訓練了34天。而GPT-4參數(shù)量達到了GPT-3的500倍,使用約2-3萬張A100,訓練1個月左右時間。
在英偉達GTC大會上,黃仁勛也講到,如果要訓練一個1.8萬億參數(shù)量的GPT模型,需要8000張H100 GPU,消耗15兆瓦的電力,連續(xù)跑上90天。
東吳證券預計,推理算力需求將是訓練的數(shù)倍,高達幾十萬張H100,隨著模型繼續(xù)迭代,算力需求只會越來越大。根據(jù)IDC預計,數(shù)據(jù)中心GPU市場預計將從2022年的103億美元增長至2027年的654億美元,CAGR達到44.55%。
算力的實現(xiàn)需要以AI服務器為載體,而AI服務器則是包含GPU、CPU、存儲、通信技術等在內(nèi)的龐大產(chǎn)業(yè)鏈。
根據(jù)TrendForce數(shù)據(jù),2022年全球AI服務器出貨量達到85.5萬臺,預計2026年全球AI服務器出貨量為236.9萬臺,2022-2026年CAGR高達29.02%,遠超全球整體服務器市場增速。
就中國市場而言,根據(jù) IDC 和浪潮信息聯(lián)合發(fā)布的《2022-2023年中國人工智能計算力發(fā)展評估報告》,2021年中國AI服務器市場規(guī)模59.2億美元,預計到2026年將達到123.4億美元,2021-2026年CAGR達15.82%。
因此,AI服務器需求的激增,使得市場對英偉達數(shù)據(jù)中心GPU的需求高增,而英偉達從GPU向AI服務器整機的業(yè)務衍生,也給公司的營收帶來了巨大的增量。
了解英偉達,要關注哪些產(chǎn)品?
根據(jù)英偉達官網(wǎng)披露,在每一代的GPU架構(gòu)下,公司會將旗下的GPU按品牌分類進入GeForce、NVIDIA RTX/Quadro、數(shù)據(jù)中心三個品類。其中,GeForce系列主要應用于游戲行業(yè),屬于消費級GPU;NVIDIA RTX/Quadro主要應用于工業(yè)設計、媒體開發(fā)等專業(yè)級別領域;從GPU的性能橫向?qū)Ρ葋砜矗诸愡M入數(shù)據(jù)中心相關的GPU往往是英偉達的**產(chǎn)品。
前文提到,AI服務器需求的大爆發(fā),已經(jīng)使得數(shù)據(jù)中心GPU相關產(chǎn)品成為英偉達*大的收入來源,且相關產(chǎn)品收入增速驚人?;诖?,本文我們討論英偉達供應鏈時,*大的增量即來自數(shù)據(jù)中心的GPU相關業(yè)務。
那么,數(shù)據(jù)中心主要需要哪些GPU芯片?
我們可以根據(jù)英偉達的命名規(guī)則,來大致推測其一款GPU芯片的主要應用方向。一般來說。名稱前綴帶GeForce的即主要應用于游戲等消費領域;名稱中沒有GeForce但有RTX、Quadro的,主要應用于專業(yè)設計領域,其中RTX表明GPU具備光追功能;名稱中沒有前述所有字樣,但直接以GPU架構(gòu)開頭字母命名的,如A100(Ampere)、H100(Hopper)、L4(Ada Lovelace)、B200(Blackwell)則主要應用于數(shù)據(jù)中心。
從GPU性能對比來看,2023年底AMD發(fā)布的MI300X,在浮點運算能力方面曾短暫超過英偉達當時的*新產(chǎn)品H200。但在2024年英偉達Blackwell架構(gòu)下的B200發(fā)布后,B200的低精度運算能力又反超AMD。在終端需求,由于大模型的訓練、推理往往以低精度運算為主,因此英偉達的*新GPU依然相較AMD有明顯優(yōu)勢。此外,英偉達耗時十余年打造的CUDA軟件生態(tài),也讓英偉達在軟件層面建立了獨特的護城河,大大提高了市場對其GPU產(chǎn)品的認可度。

圖:英偉達數(shù)據(jù)中心GPU產(chǎn)品性能數(shù)據(jù)來源:招銀國際、36氪整理
不過,英偉達的野心并不只單純局限于GPU芯片。近年來,其不斷圍繞GPU拓展數(shù)據(jù)中心相關的衍生業(yè)務,力圖為數(shù)據(jù)中心提供一站式的產(chǎn)品服務與綜合解決方案。其中*典型的產(chǎn)品有兩款,一是英偉達利用多塊GPU構(gòu)建的DGX系列服務器,以及多個DGX服務器組成的機架級服務器。二是可滿足客戶定制化需求的HGX服務器平臺。
例如,在2024的GTC大會上,英偉達就發(fā)布了DGX GB200服務器,以及DGX GB200 SuperPod機架級液冷服務器。具體來看,DGX GB200 SuperPod由8臺DGX GB200服務器組成,一臺DGX GB200服務器由36個GB200組成,一個GB200又由2個B200 GPU和一個Grace CPU組成。
英偉達映射的投資機會有哪些?
前文所述,我們提到當下大模型的快速迭代對算力支持提出了更高的要求,而英偉達在AI服務器方面的**優(yōu)勢使得其對應業(yè)務呈現(xiàn)跨越式的擴張,同時,受益于行業(yè)前景樂觀預期疊加供不應求背景下公司業(yè)績的強確定性,2022年10月至今,英偉達股價也實現(xiàn)了超7倍的增長,不僅如此,與其數(shù)據(jù)中心業(yè)務相關的供應鏈公司,也同步實現(xiàn)了飛躍。
英偉達概念投資,主要是圍繞英偉達**產(chǎn)品如DGX GB200 SuperPod機架級液冷服務器等的產(chǎn)業(yè)鏈構(gòu)成以及對應供應鏈公司展開。
從產(chǎn)業(yè)鏈構(gòu)成上來看,我們常說的H100、A100實際上是GPU板卡,主要包括GPU芯片、HBM等電子元器件,在此基礎上,多個GPU+CPU+SSD組成AI服務器,多個AI服務器+交換機+機架,又組成服務器集群。
具體到AI服務器,根據(jù)提供的功能不同,可以分為計算、存儲、互聯(lián)接口、I/O、功率、固件和其它配套等板塊,具體又包括GPU、CPU、顯存HBM、DRAM、硬盤SSD+RAID、板內(nèi)芯片互聯(lián)、服務器互聯(lián)、網(wǎng)卡、電源管理、BMS/BIOS、PCB、電源模塊、散熱模塊、其他元器件/線纜、代工等。
在各環(huán)節(jié)的BOM占比方面,以英偉達DGX A100系統(tǒng)為例,根據(jù)中金證券的數(shù)據(jù),單環(huán)節(jié)價值量占比由高到低分別為GPU(48%)、代工(15%)、SSD(10%)、顯存HBM(9%)、DRAM(9%)、CPU(7%)、網(wǎng)卡(1%)、互聯(lián)接口(0.7%)、PCB(0.6%)、散熱(0.3%)、電源模塊(0.3%)、其他元器件(0.1%)、電源管理(0.09%)、BIOS/BMS(0.02%)。
考慮到DGX B200系統(tǒng)在內(nèi)部采用了銅纜連接,并配合液冷系統(tǒng),因此,相對DGX100而言,預計銅纜、散熱模塊的價值量有望提升。根據(jù)市場數(shù)據(jù),預計銅纜在單服務器的BOM占比有望達到5-7%。
具體到各環(huán)節(jié)的公司構(gòu)成上,詳細數(shù)據(jù)在下邊逐一展開:
|?GPU
GPU芯片產(chǎn)業(yè)鏈上中下游分別為芯片設計、芯片制造及芯片封裝與測試。
英偉達處于上游的芯片設計環(huán)節(jié),在中下游的芯片制造環(huán)節(jié),臺積電憑借先進的4nm、7nm工藝及CoWoS封裝技術,成為英偉達GPU芯片制造,以及GPU芯片+HBM封裝的主要廠家。
簡單來說,臺積電在為英偉達制造出GPU芯片后,又將這塊GPU芯片與海力士的HBM芯片進行封裝,然后再將封裝后的產(chǎn)品交給其他廠商(如工業(yè)富聯(lián))進行組裝,*終形成GPU板卡。目前國內(nèi)企業(yè)可以參與的,主要集中在封測環(huán)節(jié)。|?CPU
AI服務器中,CPU同樣是不可或缺的芯片。
如果說GPU的主要功能是運算,那么CPU就是控制GPU運算的的“大腦”。例如,英偉達DGX H100中就包括2塊CPU和8塊GPU芯片。
此前,英偉達DGX H100服務器中曾采用英特爾的CPU,但在其*新發(fā)布的GB200超級GPU上,英偉達采用了自研的Grace CPU。另外,英偉達發(fā)布的DGX B200和DGX GB200服務器中,還搭載了專用于加速計算的DPU芯片。
目前,顯存主要包括GDDR、HBM(高帶寬存儲器)兩種類型,由于HBM擁有高帶寬優(yōu)勢,因此成為英偉達中高端數(shù)據(jù)中心GPU(如A100、H100、H200)的標配。
HBM是一款新型的高帶寬、高附加值DRAM產(chǎn)品。憑借獨特的TSV信號縱向連接技術,HBM內(nèi)部將數(shù)個DRAM芯片在緩沖芯片上進行立體堆疊,其內(nèi)部堆疊的DDR層數(shù)可達4層、8層以至12層,從而形成大容量、高位寬的DDR組合陣列。
除此之外,HBM堆棧不通過外部互連線的方式與GPU/CPU/Soc連接,而是通過中間介質(zhì)層緊湊快速地連接信號處理器芯片。HBM通過3D堆疊多層DDR提供海量并行處理能力、通過集成型HBM提供極高的存儲器帶寬,并使得數(shù)據(jù)參數(shù)距離核心計算單元更近,從而有效降低數(shù)據(jù)搬運的延遲和功耗。在系統(tǒng)集成方面,HBM將原本在PCB板上的DDR內(nèi)存顆粒和計算芯片一起集成到SiP,有效利用空間、縮小面積。
以英偉達A100 80GB配置4或8張GPU卡來計算,其HBM用量約為320-640GB,根據(jù)SK海力士預計,中長期內(nèi)HBM需求的年增長率將達到約60%。不過,目前供給層面HBM幾乎被海力士、三星、美光三家企業(yè)壟斷,其中,SK海力士是英偉達HBM第一大供應商,而香農(nóng)芯創(chuàng)等則通過供貨SK海力士間接綁定英偉達。
|?SSD
AI服務器中,SSD是繼顯存外的另一大儲存芯片。值得注意的是,HBM是DRAM,類似于手機俗稱的運存,適用于短期儲存,而SSD是NAND,類似于手機俗稱的內(nèi)存,適用于長期儲存。
SSD上游參與者主要包括閃存芯片、主控芯片廠商,中下游則主要為模組廠商。
一般來說,IDM廠商(又稱原廠)不僅掌握核心閃存芯片的設計,還可以一體化完成SSD所有設計和生產(chǎn)流程,在SSD和SSD主控芯片領域都占有主導地位。模組廠商則主要做組裝,部分模組廠商也在拓展主控芯片技術。
從行業(yè)格局來看,SSD實際上與HBM類似,海力士和三星同樣占據(jù)較高的市場份額。
|?互聯(lián)接口:芯片互聯(lián)和服務器互聯(lián)
AI算力的提升方式,除了依靠單GPU性能升級外,還需要高速的芯片互聯(lián)技術、系統(tǒng)互聯(lián)技術作為支撐,從而提升GPU算力的可擴展性,形成強大的集群算力。
就英偉達而言,目前使用的互聯(lián)技術主要包括:PCIe Switch、NVLink、NVSwitch等。
PCIe的特點是兼容性強,主要應用于不同制造商和設備類型之間的高效通信。目前,PCIe技術已經(jīng)發(fā)展至第六代,且第七代標準已于2024年公布,預計將在2025年正式推行。民生證券統(tǒng)計,PCIe Switch核心的芯片技術,主要被博通、微芯科技和祥碩科技三家壟斷,合計占有全球約58%的份額,國內(nèi)僅邊緣智芯等上市企業(yè)擁有相關技術。
此外,為了解決PCIe總線的信號衰減問題,PCIe Retimer芯片作為為信號中繼器,需求量也越來越高。目前,全球量產(chǎn)PCIe 5.0 Retimer芯片的企業(yè)主要是兩家,除了瀾起之外,另一家是Astera Labs。
英偉達自研的NVLink是一種高速、低延遲的互聯(lián)技術,旨在連接多個GPU以實現(xiàn)高性能并行計算。與傳統(tǒng)的PCIe總線相比,NVLink提供了更高的帶寬和更低的延遲,使得GPU之間可以更加高效地共享數(shù)據(jù)和通信。目前*新的第五代NVLink下,單個Blackwell架構(gòu)的GPU可實現(xiàn)1.8TB/s的傳輸帶寬,超過PCle Gen 5.0帶寬的14倍。
此外,英偉達自研的NVLink-C2C技術,還支持定制裸片與英偉達GPU、CPU、DPU、NIC和SOC之間的互聯(lián),其GB200超級芯片中,CPU與GPU的連接即采用了該技術。
而只要提及NVLink,NVSwitch也會伴隨出現(xiàn),那么二者到底是什么關系?
NVIDIA中國區(qū)工程及解決方案總監(jiān)賴俊杰在官方社區(qū)中指出,NVLink可以認為是一個網(wǎng)線,NVSwitch認為是交換機,但NVSwitch并不是一般意義上網(wǎng)絡交換的設備,NVLink由一些差分的信號線所構(gòu)成,然后NVSwitch可以接多個NVLink的端口,內(nèi)部通過跨組完成數(shù)據(jù)在多個端口的轉(zhuǎn)發(fā)。
以GB200 NVL72為例,目前英偉達使用了定制化的銅纜實現(xiàn)機柜內(nèi)9個NV Switch和18個計算節(jié)點的NVLink連接。英偉達介紹NVIDIA GB200 NVL72可以在一個NVLink domain內(nèi)連接576個GPU,總帶寬超過1PB/S和240TB的閃存。而*大的變化是NV Switch從服務器PCB板載芯片的形式調(diào)整為機柜內(nèi)的9臺交換機,連接能力提升至72個GPU,這就需要使用銅纜實現(xiàn)機柜內(nèi)的NVLink連接。
|?網(wǎng)卡
服務器通過網(wǎng)卡與交換機互聯(lián),將數(shù)據(jù)流通過數(shù)據(jù)幀交換方式傳輸?shù)侥康牡亍?/span>網(wǎng)絡互聯(lián)技術包括以太網(wǎng)、InfiniBand和Omnipath等。其中InfiniBand憑借高帶寬、低延時的優(yōu)勢在AI數(shù)據(jù)中心和AI服務器中廣泛應用。
目前InfiniBand產(chǎn)品為英偉達旗下Mellanox生產(chǎn)的HDR,可以提供端到端200Gbps帶寬,英偉達相關服務器使用的網(wǎng)卡均為Mellanox產(chǎn)品。
|?PCB
PCB是顯卡以及服務器中起支撐作用的不可或缺部件,一向有“電子產(chǎn)品之母”的稱號。按產(chǎn)品類型劃分,主要分為單/雙面板、多層板、HDI、柔性板、IC 載板等,上游原材料主要包括覆銅板(CCL)、銅箔、半固化片及油墨等。
GPU中使用的PCB一般是多層數(shù)的高端PCB,主要應用于服務器CPU、主板、電源背板、硬盤背板、網(wǎng)卡以及Riser卡等部分。平安證券統(tǒng)計,隨著當前服務器平臺持續(xù)迭代,對于服務器PCB層數(shù)以及材料的要求也越來越高,PCB所需層數(shù)不僅從Purley平臺的10-12層提升至Eagle Stream的14-20層,而且用料方面也要對CCL損耗等級有著更高的要求,相應帶來單機PCB價值量的提升。
目前,我國在全球PCB市場的份額超過50%。國金證券指出,從格局上來看,大陸PCB廠商因配合國內(nèi)服務器廠商研發(fā)和供應,已經(jīng)在全球服務器PCB競爭中占有一席之地。
|?散熱模塊
服務器散熱系統(tǒng)的作用是將服務器內(nèi)部產(chǎn)生的熱量以及外界傳遞的熱量吸收并發(fā)散到機柜之外,從而保證內(nèi)部集成電路的正常溫度,防止高溫損傷。主流散熱技術包括風冷和液冷兩大類。
人工智能的快速發(fā)展帶來了大量的算力和機柜需求。但受限于數(shù)據(jù)中心建設面積及環(huán)保要求,傳統(tǒng)風冷越來越難以滿足散熱需求,需要液冷的不斷升級彌補。在(1)芯片單點冷卻方面:芯片功率密度的不斷提升直接影響著芯片的散熱和可靠性,逼近風冷散熱上限800W左右,而液冷能有效滿足芯片的散熱需求;(2)機柜整體冷卻方面:芯片功率的增加也導致整機柜功率的增長,采用傳統(tǒng)風冷的數(shù)據(jù)中心通??梢越鉀Q12kW以內(nèi)的機柜制冷。隨著服務器單位功耗增大,同樣尺寸的普通服務器機柜可容納的服務器功率往往超過15kW,相對于現(xiàn)有的風冷數(shù)據(jù)中心,已逼近空氣對流散熱能力天花板,液冷或?qū)⒊蔀椋堰x擇。
目前英偉達DGX GB200服務器使用的就是液冷技術。
如前文所述,目前在第五代NVLink技術下,GB200服務器內(nèi)部使用了約5000根銅纜(共計2英里)進行交換機和GPU之間的連接。DAC(高速銅纜,速率>10GB的短距離傳輸)是成本相對較低的的高速互聯(lián)方式,不包含電子元件,成本僅為光模塊的1/5,且功耗低、延遲和插入損耗低,可以替代電子或光學連接器用于短距離的高速傳輸網(wǎng)絡。|?光模塊
目前,英偉達用第五代NVLink和第四代NVSwitch構(gòu)建多層NVLink網(wǎng)絡,實現(xiàn)576個GPU的直接互聯(lián)和共同訪存。在這種互聯(lián)方案中,GPU與機柜內(nèi)部NVSwitch之間采用銅纜連接,而不同層級的NVSwitch之間則仍然采用光互聯(lián),因此光模塊的數(shù)量仍然是穩(wěn)中有升的。
根據(jù)SemiAnalysis的測算,鑒于DGX GB200 NVL72擁有72個OSFP端口,每個端口對應于1個400G或800G光模塊,隨著GB200數(shù)量的增加,網(wǎng)絡拓撲結(jié)構(gòu)發(fā)生變化,*終GB200對應于800G光模塊的數(shù)量關系將介于1:2.5到1:3.5之間。
|?交換機
如果將多臺DGX服務器組合成為一個集群,那么就需要用到交換機。
交換機是用于電光信號轉(zhuǎn)發(fā)的網(wǎng)絡設備,可以為接入交換機的任意兩個網(wǎng)絡節(jié)點提供獨享的電信號通路。例如,英偉達DGX H100 SuperPOD中就包含32臺服務器,以及12臺交換機。
2019和2020年,英偉達相繼收購交換機企業(yè)Mellanox和Cumulus,親自下場生產(chǎn)交換機產(chǎn)品。從硬件結(jié)構(gòu)來看,交換機由機殼、電源、風扇、背板、管理引擎、系統(tǒng)控制器、交換模塊、線卡構(gòu)成。
目前,在交換機板塊,英偉達主要是使用了自研的Spectrum-X800以太網(wǎng)交換機。
|?ODM代工
在ODM/OEM代工方面,鴻海精密目前是英偉達AI服務器*主要的代工廠商,同時也是英偉達AI服務器芯片基板*大供應商(超50%),也是英偉達*新的GH200芯片模組唯一的供應商,主要通過旗下工業(yè)富聯(lián)和鴻佰科技進行AI服務器業(yè)務,同時,緯創(chuàng)、超微電腦等也有合作。
|?其他合作商
除了以上核心環(huán)節(jié)的供應鏈公司外,部分A股上市公司通過其他合作方式也進入了英偉達概念名單。例如,在算力合作方面,鴻博股份、浪潮信息均有合作;在境內(nèi)智算場景方面,順網(wǎng)科技與英偉達有合作;千方科技子公司則與英偉達聯(lián)合開發(fā)服務器;中電港則是英偉達的授權分銷商;鼎陽科技為英偉達提供電子測試測量儀器。