ChatGPT的現象級爆紅,可帶來哪些半導體產業鏈機遇?

國際電子商情 發佈 2024-04-25T19:58:55.422542+00:00

AI領域的從業者認為,ChatGPT是AIGC應用的新起點,隨著深度學習模型不斷完善、開源模式的推動、大模型探索商業化的可能,AIGC有望進入應用爆發期。

AI領域的從業者認為,ChatGPT是AIGC(AI Generated Content,利用人工智慧技術來生成內容)應用的新起點,隨著深度學習模型不斷完善、開源模式的推動、大模型探索商業化的可能,AIGC有望進入應用爆發期。ChatGPT技術的商用落地,對半導體行業有哪些推動作用?

當前,最火的人工智慧(AI)應用當屬ChatGPT,它是OpenAI發布的聊天機器人程序。ChatGPT與用戶對話時可結合上下文做出反應,還支持寫代碼、寫郵件、寫腳本、寫文案等文字輸出型任務。

由於ChatGPT在問答環節的優異表現,該程序一經推出就受到了全球市場的關注,上線兩個月後註冊用戶人數就突破一億。在此背景下,ChatGPT背後蘊含的巨大市場潛力還有待挖掘,該技術可望撬動海量的應用場景。

訓練AI模型需海量算力資源

從本質上而言,ChatGPT是一類AI語言模型。官方資料顯示,ChatGPT是在GPT 3.5模型基礎上微調而成。ChatGPT與InstructGPT是姊妹模型,它們均採用了大型語言模型(Large Language Model,LLM)生成領域的新訓練範式——RLHF(Reinforcement Learning from Human Feedback),即以強化學習方式依據人類反饋優化語言模型,兩者僅在數據收集設置上有細微區別。

根據ChatGPT向用戶的透露的信息,RLHF是一種使用了強化學習的方式,可直接優化帶有人類反饋的語言模型。實際上,它涉及到多個模型和不同訓練階段,其技術可大致分解為以下三點:第一,預訓練一個語言模型(LM) ;第二,聚合問答數據並訓練一個獎勵模型(Reward Model,RM);第三,用強化學習(RL)方式微調LM。總而言之,RLHF可增強人類對模型輸出結果的調節,並且還能對結果進行更具理解性的排序。

關於ChatGPT的介紹 圖片來源:OpenAI官網

再觀察GPT 3.5之前的GPT-3模型,其參數量高達1,750億個,訓練所需數據量達45TB。通過使用RLHF的訓練方法,即使InstructGPT只有13億個參數量,它的輸出效果也依舊優於GPT-3。OpenAI公布的資料顯示,InstructGPT與ChatGPT是姊妹模型,由此可猜測兩者的參數量可能相差不大。

也許有讀者對於參數量缺乏具體的概念,本文通過列舉一個通俗的例子來解釋——2020年9月,微軟獲得了OpenAI GPT-3的獨家授權,該公司為訓練GPT-3建設了一個超算中心,該中心的超級計算機裝載了一萬張英偉達GPU。而訓練GPT-3消耗了微軟355個GPU年的算力(1塊GPU運行355年的算力),單次訓練費用更是高達460萬美元。不過,截至發稿日,筆者未查詢到ChatGPT模型訓練費用信息。

ChatGPT是一個AI模型,它離不開算力的支持——在訓練階段,需要大量的語料數據來訓練模型,在應用階段,需要大算力伺服器來支持模型的運行。即使ChatGPT的參數量可減少到數十億個,訓練和運行它也需消耗很大的計算資源。

推動智能計算機進一步發展

OpenAI ChatGPT的現象級走紅,推動科技公司加快類ChatGPT產品的部署。近期,谷歌、微軟、百度等企業都宣布將提供AI模型服務,其中谷歌將推出由LAMDA模型支持的對話式人工智慧服務Bard,微軟在搜尋引擎Bing中嵌入了OpenAI的GPT-3.5,百度將推大模型新項目「文心一言」,最初版本將嵌入搜索服務中。

隨著更多科技公司部署類ChatGPT服務,為訓練AI模型將需要巨大的算力,這種需求也讓一些企業看到了AI算力服務的商機。2023年2月10日,浪潮信息推出AI算力服務產品。該公司表示,將基於中國領先智算中心的算力基礎設施,為中國客戶提供AI算力資源和配套服務,支撐AI模型構建、訓練和推理的業務全流程,賦力生成式AI產業創新。

當然,資金雄厚的科技巨頭可能會搭建自己的計算中心。例如,前文所述的微軟的超級計算機,該中心設備用於在Azure公有雲上訓練超大規模的AI模型。據了解,該中心裝載了超過28.5萬個CPU、1萬個GPU,其中單個GPU伺服器的網絡連接能力達400Gb/s,該設備算力峰值達每秒可執行23.5-61.4個萬億浮點運算。

購買AI算力服務和搭建計算中心,都需要大規模的計算機設備的支持。

表1:超級計算機和智能計算機的區別

在進一步討論時,首先要釐清一個概念——算力是代表處理數位化信息能力的強弱,不同類型的算力存在著較大的差別。比如,超級計算機的算力單位是FLOPS(每秒浮點運算能力),而智能計算機的算力單位是OPS(每秒操作次數),這是兩個不同的概念。

另外,衡量算力水平還要考慮算力精度。瞭望智庫指出,目前業界用于衡量超級計算的Linpack測試,測試的是超級計算機的「雙精度浮點運算能力」,即64位浮點數字的計算(FP64)。此外,在以二進位所表示數字精度中,還有單精度(32位,FP32)、半精度(16位,FP16)以及整數類型(如INT8、INT4)等。數字位數越高,意味著精度越高、可支持的運算複雜程度越高,其能適配應用場景越廣。

智能計算機是一種專用算力設備,它在推理或訓練等智能計算方面表現出色,但大多數智能計算機不具備高精度數值計算能力;超級計算機是一種通用算力設備,其設計目標是提供完備、複雜的計算能力,在高精度計算能力更強,應用範圍更廣,主要被科研人員用於行星模擬、新材料開發、基因分析等科學計算和大數據處理。

AI模型訓練只需用到智能計算機,但目前的智能計算機技術還不成熟,僅在模式識別、知識處理及開發智能等方面有應用。儘管當前該類設備還未達到預期目標,但它在文字、語音、圖形圖像識別與理解,以及機器翻譯等領域取得了一些進展,同時相關初級產品也已經問世。

推動更多AI細分市場的發展

如前文所述,AIGC的出現有望撬動AI大規模落地的場景。同時,相關企業在多個AI產業鏈的布局將更深入。比如,在硬體層包括晶片和傳感器,其中AI晶片主要有通用型的GPU、可定製的FPGA、專用的ASIC,以及類腦晶片。英偉達的Orin晶片基於通用GPU,地平線的征程5晶片,既是ASIC晶片,也是DSA(特定領域架構)晶片;類腦晶片有IBM的TrueNorth、英特爾的Loihi、高通的Zeroth、西井科技的DeepSouth、杭州電子科技大學的達爾文、aiCTX的DynapCNN處理器等。

整體而言,AI晶片供應商主要有英偉達、AMD、Intel、VelociHOST、景嘉微、地平線、寒武紀、比特大陸、復旦微、賽靈思、Altera(英特爾旗下)、異構智能、谷歌等;傳感器部分有舜宇光學、禾賽科技等供應商;算法層有商湯科技、曠視科技、雲從科技、依圖科技、第四範式等;應用層有海康威視、科大訊飛、銳明技術等。

雖然智能計算機並不追求太大的算力頻率,但是其對晶片的功耗和散熱要求較高,所以,低功耗的FPGA和ASIC晶片在智能計算機上有更大的用武之地。與此同時,AI晶片也將從面向廠商的訓練場景為主,轉變為面向消費者的推理場景為主。業內AI專家對此評價稱,GPU的高並行計算能力和高通用性的協調統一,在消費者時代的統治力或許難以為繼,未來ASIC晶片、中國產GPGPU晶片或將能切入MaaS(出行即服務)產業生態。

伺服器產業鏈的發展會受益嗎?

或許會有讀者聯想到,理論上,更大的算力意味著更多的計算機設備,搭建這些設備也需要更多的核心器件。這是否意味著,企業對類ChatGPT技術的追求,對伺服器產業鏈的發展起到積極的促進作用?

筆者在表2中列舉了一些全球伺服器產業鏈信息,主要涉及到關鍵器件及整機供應商。

表2:伺服器核心器件及整機供應商不完全盤點

·伺服器主板供應商

伺服器主板是專門為滿足伺服器應用而開發,要求具備高穩定性、高性能、高兼容性的特點。本表列舉的伺服器主板供應商集中在中國和美國,比如美國的英特爾、超微;中國大陸的聯想等,以及台灣的華碩、技嘉、微星、泰安(神達旗下)等。

·伺服器CPU供應商

圖1:x86伺服器CPU與非x86伺服器CPU的市場占比 製圖:國際電子商情 數據來源:綜合自各研報

截至2023年Q1,全球約有90%的伺服器CPU採用x86架構,剩下的10%左右採用非x86架構。目前,英特爾占據了x86伺服器CPU 90%以上的市場份額,同為x86架構陣營的AMD雖然近年來在PC CPU領域窮追猛打,但在伺服器CPU方面其份額還難以撼動英特爾的地位。IBM的CPU採用Power架構,其全球市場占也比與英特爾低。另外,台灣的Cyrix(被威盛電子收購),中國大陸的海思、中科院計算所、天津飛騰、申威科技等也有伺服器CPU產品,但這些企業的市占比與英特爾有很大的差距。

·GPU供應商

AI模型需要大量的深度學習和機器訓練,比如參數量達1,750億個的GPT-3,需要用到大量的英偉達V100(32GB)、A100和H100(80G)GPU產品的支持。目前,英偉達A100、H100 GPU產品已經被亞馬遜AWS、微軟Azure、谷歌雲、甲骨文等公司採用。另據IDC統計資料顯示,在中國的GPU伺服器領域,英偉達的市占率也高達95%,幾乎所有的雲服務提供商和超算都採用英偉達的晶片來支持AI計算。

此外,AMD、Intel、VelociHOST等美資企業也生產GPU產品;中國的GPU供應商則有景嘉微、長沙韶光(航景科技子公司)等。

·存儲相關供應商

本表格列舉的存儲相關供應商的業務涉及到內存、外存(硬碟)和內存接口晶片。

目前,內存接口晶片已經升級到DDR5世代,供應商有瀾起科技、Rambus、IDT三家。雖然速率為4800MT/s的DDR5在PC筆電的滲透快於伺服器,但是只有當傳輸速率達到6400MT/s時,PC端才需要搭載DDR5內存接口晶片。因此,當前DDR5內存接口晶片在伺服器上的應用更多,預計在2022-2024年三年期間,伺服器端DDR5的滲透率分別為15%、40%、60%。

內存供應商有韓國的SK海力士、三星電子等,美國的美光科技、金士頓等,中國的金泰克、芝奇(台灣)等;外存供應商有美國的西部數據(含旗下閃迪)、希捷等,中國的聯想、金泰克等。

·伺服器整機供應商

在伺服器整機部分,筆者主要列舉了中美兩國的供應商。

美國有戴爾、HPE、IBM、思科等;中國有華為、新華三、浪潮、聯想、中科曙光、山東超越等。

根據目前的市場判斷,企業對類ChatGPT技術的追求,將主要推動AI晶片產業的發展,作為算力基礎設備的伺服器及其產業鏈,或將有更好的發展機會。2023年3月29至30日,AspenCore將在上海舉辦國際集成電路展覽會暨研討會(IIC Shanghai 2023),屆時,AI視覺晶片供應商愛芯元智,存儲相關供應商江波龍、東芯半導體、ISSI,國產高性能伺服器CPU供應商飛騰等企業均將參與。同期的EDA/IP 與 IC 設計論壇還將邀請國內外知名EDA/IP、IC設計企業參與演講,歡迎感興趣的朋友點擊這裡報名,併到場交流。

對伺服器產業的利好短期內並不明顯

超級計算機和智能計算機有多台伺服器組成。客觀上,科技企業對類ChatGPT服務的追捧,有利於全球伺服器產業鏈的發展,但是這種作用恐怕難以在短期內體現。據分析機構的預測,2023年全球伺服器整機市場的表現並不太好。

2023年1月底,集邦諮詢修正了對2023年全球伺服器整機市場的預測數據,增速下調至1.87%。該機構表示,受全球經濟持續疲軟影響,北美四大雲端服務供應商下修了2023年伺服器採購量,且數字可能將持續下調,下修幅度從大到小依次為Meta、微軟、谷歌、亞馬遜雲科技。這四家企業的伺服器採購量由原先預估的同比增長6.9%,降至4.4%,這將影響2023年全球伺服器整機出貨年增率下降到1.87%。

其實,已確定部署類ChatGPT的企業,主要是一些規模大、實力強的巨頭,畢竟部署這類業務需要極大的算力,訓練和驗證模型的成本也非常昂貴。相信隨著更多此類技術進一步產業化,市場上還會出現不同的細分業務模式。

責編:Clover.li

關鍵字: