AI大算力爆發!四大新興賽道卡位風口,龍頭全梳理

樂晴行業觀察 發佈 2024-01-07T21:59:09.537677+00:00

GPT模型在持續疊代過程中,能力持續增強,算力需求同樣也呈幾何倍增長。現階段的 ChatGPT 是在擁有 3000 億個單詞的語料基礎上預訓練擁有 1750 億參數的模型。

GPT模型在持續疊代過程中,能力持續增強,算力需求同樣也呈幾何倍增長。

現階段的 ChatGPT 是在擁有 3000 億個單詞的語料基礎上預訓練擁有 1750 億參數的模型。

據 OpenAI 測算,2012 年以來全球頭部 AI 模型訓練算力需求 3-4 個月翻一番,每年頭部訓練 模型所需算力增長幅度高達 10 倍,遠超摩爾定律的增長速度。

據此前 IDC 預測,預計到 2025 年,中國數據圈將增長至 48.6ZB,占全球數據圈的 27.8%,成為全球最大的數據圈。

AI 大算力的高需求將提升伺服器性能,AI 伺服器需搭載多個 CPU 和 GPU 處理器,同時伺服器 CPU性能不斷升級,要求內存技術同步升級。

DDR5、HBM、CXL、NVLink 等新興技術有望加速滲透,並充分受益於 AI 帶來的算力需求增長。

AI 伺服器

伺服器一般可分為通用伺服器、雲計算伺服器、邊緣伺服器、AI伺服器等類型。

AI伺服器專為人工智慧訓練和推理應用而設計,大模型帶來算力的巨量需求,有望進一步推動AI伺服器市場的增長。

其中,訓練任務對伺服器算力要求較高,需要訓練型伺服器提供高密度算力支持,典型產品有中科曙光X785-G30和華為昇騰Atlas 800(型號9000、型號9010)。

一個典型的人工智慧伺服器的 DRAM 容量是普通伺服器的 8 倍,NAND 容量是普通伺服器的 3 倍。

根據IDC數據,2022年全球AI伺服器市場規模202億美元,同比增長29.8%,占伺服器市場規模的比例為16.4%,同比提升1.2pct。

2022年上半年全球AI伺服器市場中,浪潮、戴爾、惠普、聯想、新華三分別以15.1%、14.1%、7.7%、5.6%、4.7%的市場份額位居前五位。

人工智慧伺服器:算力爆發打開空間,龍頭全梳理

根據 TrendForce,2023 年 ChatGPT 相關應用有望再度刺激 AI 相關領域,預計 2023 年出貨量增長率可達 8%,2022-2026 年複合成長率將達 10.8%。

DDR5: 內存接口晶片迎升級

海量數據對存儲的需求持續推動內存接口晶片量價齊升和市場高速擴容。

持續受益於伺服器出貨量增長和單台伺服器內存模組用量不斷上升。

內存接口是伺服器 CPU 與內存橋樑,當前正迎來DDR5 升級。

從存儲的分類看,存儲主要可分為RAM(隨機存儲器)和ROM(只讀存儲器)。

RAM可分為SRAM(靜態隨機存儲器)和DRAM(動態隨機存儲器)。

SDRAM(同步動態隨機存取存儲器)是在DRAM的基礎上發展而來,為DRAM的一種。

DDR SDRAM(雙倍速率同步動態隨機存儲器)又在SDRAM的基礎上發展而來,為具有雙倍傳輸率的SDRAM,其數據傳輸速度為系統時鐘頻率的兩倍,由於速度增加,其傳輸性能優於傳統的SDRAM。

DDR SDRAM經歷了DDR2、DDR3、DDR4等幾代技術更迭,其差異性主要體現存儲器的電源電壓值越來越低,而數據傳輸速率卻是呈幾何倍數增長,同時存儲容量也隨之大幅增加。

DDR5 內存性能遠超 DDR4 的規格上限,配套內存接口晶片性能及技術難度隨之提升。

根據市場調研機構推測,DDR5 已占據整個 DRAM 市場份額的 10%,2024年則將進一步擴大至 43%。伺服器市場對高性能有著絕對的需求,可能最先推廣DDR5

隨著新一代DDR產品的升級,內存接口晶片有望迎來量價齊升,DRAM市場有望開啟新一輪增長

內存接口晶片行業壁壘高,競爭格局相對較好。國內瀾起科技正在拓展津逮@伺服器平台&PCIe Retimer 和 AI 晶片產品線;聚辰股份SPD 受益於算力需求增加及 DDR5 升級。SPD 用於伺服器等領域,受益於 算力需求增加及 DDR5 升級。聚辰和瀾起科技合作開發配套新一代 DDR5 內存條的 SPD 產品,該產品系列內置 SPD EEPROM,系 DDR5 內存模組不 可或缺組件。

HBM:為大算力晶片提供支撐

行行查 | 行業研究資料庫 數據顯示,高帶寬存儲器(HBM)是一款新型的CPU/GPU 內存晶片,通過將多個DDR晶片堆疊在一起,實現大容量,高位寬的DDR組合陣列。

HBM 可支持更高速率的帶寬,並實現高於256GBps 的突破性帶寬,單顆粒的帶寬遠超過DDR4 和GDDR6。

HBM將為大算力晶片提供能力支撐,同時生成類模型也會加速 HBM內存進一步增大 容量和增大帶寬。

如今搭載於新興 AI 應用的內存晶片亟待升級,這種設計能夠大大提升信息交換的速率。

從競爭格局來看,全球範圍內,HBM2內存核心廠商主要包括SK海力士、三星、Altera、英特爾和超微半導體等。

全球第一梯隊廠商主要有SK海力士、三星、Altera和英特爾;第二梯隊廠商有超微半導體和美光。

海力士HBM技術起步早,占據較大市場,2018年發布HBM2,2021年發布全球首款HBM3,目前在研HBM4。

三星從HBM2開始布局,2016年量產HBM2,2021年2月,三星電子推出了HBM-PIM(存算一體),將內存半導體和AI處理器合二為一,2022年HBM3已量產。

國內布局廠商中,通富微電在Chiplet、WLP、SiP、Fanout、2.5D、3D堆疊等方面均有布局和儲備;深科技是國內最大的獨立DRAM內存晶片封測企業,全球第二大硬碟磁頭製造商,全資子公司沛頓科技封裝技術包括 wBGA/FBGA 等,具備先進封裝 FlipChip/TSV 技術(DDR4 封裝)能力;長電科技具有高集成度的晶圓級WLP、2.5D/3D、系統級(SiP)封裝技術和高性能的Flip Chip和引線互聯封裝技術;兆易創新是國內存儲龍頭,是國內技術最為先進的存儲廠商,NORFlash、NAND Flash及MCU為主要產品的業務板塊。

TrendForce 預估 2023-2025 年 HBM 市場年複合成長率有望成長 至 40-45%以上。

CXL:存儲晶片界CPO

隨著存儲成本不斷增加,傳統的PCI-e技術逐漸乏力。在此背景下,基於PCI-e協議的CXL技術應運而生。

CXL 全稱為 Compute Express Link,是由英特爾於 2019 年 3 月在 Interconnect Day 2019 上推出的一種開放性互聯協議,能夠讓 CPU 與 GPU、FPGA 或其 他加速器之間實現高速高效的互聯,從而滿足高性能異構計算的要求。

快速成長的人工智慧(AI)與機器學習(ML)新興任務,持續激增的雲端運算以及網絡和邊緣的「雲端化」將成為推動CXL發展的重要因素之一。

CXL技術用途:

CXL聯盟董事會成員包括Intel、Google、IBM、Facebook等科技巨擘,發起者Intel擁有80%伺服器CPU市場份額。

CXL聯盟成員:

根據TrendForce,CXL導入將隨著未來CPU內建CXL功能而普及化。同時CXL建立數據高速互聯性的優點,有助於擴展AI算力,未來AI伺服器將能見到更多採用CXL的設計。

瀾起科技推出首款支持CXL的MXC晶片並研發支持CXL的PCIe Retimer晶片。

美光科技在 22 年 5 月與投資者交流 時曾預測 CXL 相關產品的市場規模,到 2025 年預計將達到 20 億美金,到 2030 年 可能超過 200 億美金。

NVLink:晶片互連技術

NVLink 是為了解決伺服器內部 GPU 之間點到點通訊的一種協議。

英偉達在2023年美國消費電子展(CES)上,發布了數據中心專屬CPU——「Grace CPU超級晶片」。該晶片由兩顆CPU晶片組成,其間通過NVLink-C2C技術進行互連。

NVLink-C2C技術是一種新型的高速、低延遲、晶片到晶片的互連技術,可最大化提升系統吞吐量。

與Chiplet技術有異曲同工之妙,可支持定製裸片與GPU、CPU、DPU、NIC、SoC實現互連。

第四代 NVIDIA® NVLink®技術可為多 GPU 系統 配置提供高於以往 1.5 倍的帶寬,以及增強的可擴展性,進而實現超快速的深度學習訓練。

隨著模型參數數量增大,訓練所需要算力不斷增長,英偉達有望進一步鞏固公司龍頭 地位。

國內廠商浪潮推出的NF5688M6是新一代NVLink AI 伺服器,在超大規模數據中心研發的同時擁有高性能,高兼容,強擴展性能。在6U空間內支持2顆Intel最新的Ice Lake CPU和8顆NVIDIA最新的NVSwitch全互聯 A800 GPU,結合AI算力資源調度平台AIStation,能夠釋放強大AI計算性能。

隨著人工智慧、機器學習、高性能計算、數據中心等應用市場的興起,內存產品設計的複雜性正在快速上升,並對帶寬提出了更高的要求。海量的算力數據和不斷上升的寬帶需求持續驅動人工智慧新技術發展。

關注樂晴智庫,洞悉產業格局!

關鍵字: