英偉達股價大漲,小眾存儲晶片「翻身」:火熱的ChatGPT還會催熱哪些晶片需求?

界面新聞 發佈 2024-05-14T08:39:14.511354+00:00

記者 | 彭新編輯 | 由OpenAI開發的聊天機器人ChatGPT於去年末發布後,由於表現驚艷,近期在全球颳起了一股猛烈的旋風。微軟和谷歌等巨頭在此類技術上投入巨資。在國內,百度和其他網際網路公司也表示正在開發此類技術,並即將推出。

記者 | 彭新

編輯 |

由OpenAI開發的聊天機器人ChatGPT於去年末發布後,由於表現驚艷,近期在全球颳起了一股猛烈的旋風。微軟和谷歌等巨頭在此類技術上投入巨資。在國內,百度和其他網際網路公司也表示正在開發此類技術,並即將推出。

GPT即預訓練大語言模型(Generative Pre-trAIned Transformer),其基於自然語言處理模型Transformer進行預訓練,並不斷疊代提升模型能力。大語言模型等此類生成式AI通過海量數據訓練,可以產生前所未有的高質量輸出,可用於搜索、對話機器人、圖像生成和編輯等。

微軟使用ChatGPT技術,將其引入搜尋引擎必應,藉助對話式人工智慧(AI),通過準確理解人類提問意圖並做出回答,給搜索帶來革新。除了文字,預訓練大模型還能生成圖像,與真人作畫相比不分高下的AI畫師過去數月多次湧現。

ChatGPT崛起,相關應用用戶快速增長下,對運算基礎的算力要求越來越高,也將對相關的晶片提出了需求。因其背後技術將高度依賴AI處理能力,並涉及與之相關的網絡、存儲和算力基礎設施。

GPU為AI計算主流

ChatGPT高度依賴AI計算能力,而向OpenAI提供GPU晶片的英偉達正成為最大受益者,摩爾線程摩爾學院院長李豐解釋,當人工智慧模型通過算法生成內容時,即需要大量數據進行訓練,這一過程即在GPU集群進行,隨後訓練完成的模型又部署在GPU集群進行推斷,完成圖像生成、語言聊天等工作。

「人工智慧的算法是在不斷進步和疊代過程當中,GPU實際上兼顧了靈活度以及計算能力,」李豐稱,相比專用的AI晶片,GPU靈活性更強,又可以保證AI計算性能,因此受到開發者的歡迎。他提及,在全世界範圍內,主要的增長算力的來源來自於GPU。

目前,ChatGPT背後的GPT-3.5模型已有超過1750億個參數,訓練成本高昂,根據國盛證券報告顯示,GPT-3訓練一次的成本約為140萬美元,對於一些更大的大型語言模型,訓練成本介於200萬美元至1200萬美元之間。

以ChatGPT在今年1月的獨立訪客平均數1300萬計算,其對應晶片需求為3萬多片英偉達A100 GPU圖形處理器,初始投入成本約為8億美元。此外,據花旗集團預估,ChatGPT將可能促使英偉達相關產品在12個月內銷售額達到30億至110億美元。

這意味著,ChatGPT等此類應用將會拉動英偉達GPU晶片需求。英偉達公司的GPU圖形處理器在大型AI模型培訓市場占據主導地位,其股價今年已大漲55% 。

一家大型IT廠商的人工智慧部門負責人向界面新聞記者表示,目前在訓練端,英偉達是毫無疑問的冠軍,其他玩家爭奪的市場在於推斷端,這部分的任務量較小,對功耗、延遲更敏感。李豐就提及,摩爾線程已經在內部測試,完全部署在摩爾線程GPU上的AIGC平台不久即面世,這是包括了圖像生成、自然語言生成等一系列的內容生成平台。

除了GPU,涉及計算能力的晶片類型還包括CPU、FPGA、ASIC等,不同類型的計算晶片進行組合,可以滿足不同AI模型的計算需要。

專用AI晶片ASIC(專用集成電路)也有望未來在AI算力中占據一席之地。谷歌此前發布了自研TPU(張量處理器)並多次疊代,這是谷歌特別設計用於機器學習的晶片。依照谷歌提供的數據,TPU計算效率是過往GPU十倍以上。谷歌將TPU部署在自家雲平台上,未來該公司將推出的對話式AI服務Bard,也將基於TPU運行。

小眾晶片HBM走向前台

在一個計算系統中,與計算相匹配必然還需要存儲、網絡等架構。無論是CPU、GPU,還是其它專用晶片,在計算過程中均將不可避免的被存儲、通信等進程打斷,需要行業參與者拿出對應解決方案。

在ChatGPT熱潮下,一種小眾存儲晶片的名氣正隨著AI計算需求劇增而為外界所知,據《韓國經濟日報》報導,受惠於ChatGPT,隨著市場對GPU需求劇增,三星、SK海力士的HBM晶片贏得了額外的訂單,成為目前存儲晶片下行市場中,意外爆紅的晶片類型。

HBM(High Bandwidth Memory,高帶寬存儲器)晶片是一種可以實現高帶寬的內存晶片,與普通DRAM內存相比,HBM可以提供更高的數據的傳輸速度,基於該特性,HBM主要應用於高性能計算場景中,如超級計算機、AI加速器、高性能伺服器領域。

HBM在與CPU及GPU協同工作中,可以提高機器學習和計算性能。目前ChatGPT的火熱發展已令英偉達等GPU廠商受益——ChatGPT使用了1萬多個英偉達的A100 GPU學習了龐大的文檔數據。而HBM可以安裝在加速卡中,英偉達A100就最高配備80GB HBM2內存。

「HBM一直很難賣,因為價格是DRAM的3倍,但AI是HBM的殺手級應用。」TriOrient Investments副總裁Dan Nystedt稱。由於成本高昂,HBM一直難以大規模普及,市場推廣較慢,但預計AI應用將為其進一步打開市場規模。

目前,由ChatGpt帶動的HBM需求已經引起了上游廠商的關注。SK海力士提及,目前已開發除第四代HBM產品,並於去年向英偉達供貨。三星半導體對界面新聞表示,基於人工智慧技術的交互式AI的學習和推理需要高性能處理器和支持其高性能存儲器組合,這將積極地影響對存儲器的需求。

針對AI應用,三星半導體介紹,已經在存儲晶片上結合人工智慧處理器的HBM-PIM(Procee in Memory,存內計算)技術上取得了成果,並計劃與客戶共同構建PIM平台生態系統。

根據市場調研機構Omdia在2021年預測,到2025年,HBM市場的總收入將達到25億美元,目前來看,這一數字隨著AI計算需求增長有望打破。

長期來看,HBM配合CXL等新型數據傳輸協議也將在增強AI計算性能,並獲得行業巨頭支持。半導體諮詢機構集邦諮詢認為,CXL將隨著未來CPU內置CXL功能而普及化,在未來AI伺服器中,可以見到更多使用HBM和CXL的聯合設計方案。

分布式計算呼喚DPU

ChatGPT參數量數以億計,無法在單台機器上進行有效的訓練或推理,因此需要使用分布式計算。在分布式計算中,機器之間的帶寬和高效的計算晶片變得至關重要,因為數據互連往往是瓶頸。在數據中心層面,業界期待被視為數據中心「第三顆晶片「的DPU解決此類問題。

「ChatGPT這類語言類生成模型的參數量高達千億,幾乎不可能使用單機訓練和推理,而必須大量使用分布式計算。」DPU開發商雲脈芯聯相關負責人告訴界面新聞,在進行分布式計算時,就需要DPU做一些數據的處理和預處理,由DPU將任務分發給CPU、GPU和FPGA等進行計算。

DPU即數據處理器(Data Processing Unit),用於處理海量數據,在雲數據中心中,數據在多個伺服器之間來回流動。雲廠商通過將網卡改造為DPU,減輕CPU負擔,使其專注於更關鍵的任務,類似於公司前台可以緩解員工的工作量。

業內還預計,除了GPU、HBM、DPU以外,由小芯粒技術Chiplet加持的晶片異構技術,也有望支持算力增長,Chiplet通過把不同晶片的能力模塊化,利用新的設計、互聯、封裝等技術,在一個封裝的產品中使用來自不同技術、不同製程甚至不同工廠的晶片。從半導體產業鏈端來看,包括IP授權、晶圓代工、封測等廠商為之提供關鍵的技術支持,可視為提升AI算力重要的基礎設施。包括Imagination、Arm、台積電、日月光等上下游廠商,將從中獲得增長。

關鍵字: