OpenAI提出的新摩爾定律怎樣理解?中國隱藏算力巨頭有話說

量子位 發佈 2024-04-30T13:06:12.507623+00:00

允中 發自 凹非寺量子位 | 公眾號 QbitAIChatGPT火遍全世界,與之相關的一切都在風口浪尖。OpenAI執行長Sam Altman看似隨意分享的一句話,就成為熱議的焦點:新版摩爾定律很快就要來了,宇宙中的智能每18個月翻一倍。

允中 發自 凹非寺
量子位 | 公眾號 QbitAI

ChatGPT火遍全世界,與之相關的一切都在風口浪尖。

OpenAI執行長Sam Altman看似隨意分享的一句話,就成為熱議的焦點:

新版摩爾定律很快就要來了,宇宙中的智能每18個月翻一倍

一些人猜測可能指神經網絡的參數量,但和過去幾年的數據並不對的上。

一些人理解是包括人和AI在內所有智能體的能力,但這個指標如何衡量又成了問題。

也有很多學者、網友並不認同這個判斷,IBM科學家Grady Booch表示這是胡說,就被頂成了熱評第一。

對於這些討論,Altman只是簡單的回覆了「現在還沒開始」。

但不管怎麼說,AI飛速發展的背後,算力是一個明確可衡量的指標,也是必不可少的條件。

早在2018年,OpenAI還發表過另一個與摩爾定律形式相近的觀點:

從2012年的AlexNet到2017年底的AlphaGo Zero,訓練最大AI模型所需算力每3.4個月翻一番

不久之後,他們自己發布的GPT-3又把這個數字縮短到2個月翻一番

到了ChatGPT時代,需要考慮的就不只是AI訓練算力,全球1億月活用戶、接入微軟必應搜索等產品,AI推理算力也是重要支撐。

最直接為ChatGPT提供算力的是微軟Azure雲,從2019年第一次向OpenAI投資10億美元開始就是OpenAI的獨家雲供應商。

最新追加100億美元投資時,雙方在聲明中再次強調了這一點。

獨家供應,意味著OpenAI的開發基礎設施全部構建在Azure雲上,使用Azure雲提供的工具鏈。

也意味著即將到來的AI創業大軍,要想基於ChatGPT也只能選擇Azure雲。

相應的,谷歌AI背後有自家的谷歌雲,雲計算行業第一的亞馬遜也緊急找來HuggingFace合作部署開源大模型Bloom。

……

而雲計算並不是算力的源頭,就在ChatGPT的火爆火熱中,算力供應側出現一批表現亮眼的公司。

有些玩家你或許馬上就能想到,但也有一些參與者,由於之前其他業務太出名,可能在意料之外。

這其中,就有一位來自中國的選手。

新摩爾定律,離不開算力

上一波以圖像識別、推薦算法為代表的AI應用落地,推動數字經濟發展的時候,算力從一個技術名詞上升成經濟學名詞,被產業、學界反覆強調。

這一波生成式AI引爆全球熱情的時候,算力再一次升級成了與普通人工作生活相關的,被大眾所感知到。

ChatGPT消耗多少成本?

半導體行業資訊機構SemiAnalysis做過一個估算:以GPU衡量,需要約3617台英偉達HGX A100伺服器,也就是28936塊A100;以資金衡量,用戶每一次提問的成本是0.36美分,一天就要花費69萬美元

得出的結論是:如果讓ChatGPT承擔谷歌搜索的全部訪問量,總共需要410萬張英偉達A100 GPU

所以自然而然,英偉達就是那個ChatGPT火爆中最知名的獲利者。目前英偉達在AI晶片市場約占75%-80%份額,ChatGPT每一次熱搜,都是老黃帳戶金幣到帳的聲音,在這波熱潮加持下,截至最新財報公布之時,英偉達的股價在2023年足足上漲了45%。

CEO黃仁勛也在電話會議上有個最新表態:

「生成式AI,讓全球企業都有了開發和部署人工智慧的戰略緊迫感。」

而且這還只是開始,根據花旗銀行則預測,未來12個月內英偉達GPU銷售額可達到30億至110億美元。

英偉達之外,從GPU往上游追溯ChatGPT紅利贏家,是位於晶片製造層的台積電。

近期就有報導稱,近期英偉達、AMD包括蘋果都對台積電下緊急訂單,希望搶占未來產能。

之前,台積電多年來的收入支柱一直是智慧型手機業務,但在2022年,智慧型手機銷量慘澹,人工智慧爆發的雙重影響下,高性能計算業務連續三個季度反超——或許也是時代轉關的先聲。

更重要的是,台積電實際也已經明確了這種變化。在最近的對外發聲中,台積電對於接下來的一年給出了樂觀預期,表達也非常耐人尋味:儘管全球半導體產業面臨衰退,但全年業績仍有望小幅增長。

當然,如果更加簡單粗暴推導,其實英偉達漲的時候,台積電業績也不會差,畢竟產業鏈角色和供需關係就放在那裡。

那按照這種供需,是不是ChatGPT帶來的算力層紅利,也會到雲計算、雲服務廠商了?

是,也不全是。

就在ChatGPT的火爆中,諸多分析指向了雲計算,但也有分析快速把目光集中到了中間環節——GPU到雲計算服務的中間環節——伺服器。

晶片要想真正發揮作用,繞不過伺服器:晶片之間如何高速互聯,整個機櫃如何控制能耗和散熱,系統設計如何適應不同工作負載,都影響著最終性能和效率。

Gartner就有預測稱,到2025年,全球伺服器市場規模會達到1350億美元,其中AI伺服器和AI雲服務更是會呈爆發態勢。

而也就是在這一環節,在AI伺服器方向,藏著文章開頭提到的來自中國的算力參與者。

聯想集團,Lenovo。

或許之前,你對聯想集團認知更多的是PC,但PC的本質也是個人算力。

聯想走過這樣一條從PC到高性能計算,再到更廣泛的算力基礎設施之路。

這有最直觀的財報數據為證。根據聯想集團公布的第三季度財報(2022年10-12月),其ISG(Infrastructure Solutions Group)基礎設施方案業務,營收增長48%,運營利潤更是猛增156%。

與DigiTimes統計的同期全球伺服器出貨量同比下降7.1%,環比下降4.3%形成鮮明對比。

聯想集團ISG,提供的正是算力為核心的基礎設施輸出和方案,伺服器是其中最重要的業務之一。

並且更直接地細分到伺服器業務,該季度營收同比增長了35%,已經成為了全球第三大伺服器提供商——來自GhatGPT的算力紅利功不可沒。

但ChatGPT的突然爆火,實際也只是把聯想集團作為算力贏家的隱秘角色推到了台前。

聯想靠什麼成為算力「隱形」冠軍?

聯想集團董事長兼CEO楊元慶稱,ChatGPT背後所需要的普慧算力基礎設施恰好是聯想已經布局多年的強項。

對算力設備的需求聯想早已預見,並提出「端-邊-雲-網-智」的新IT架構。

去年,聯想進一步提出普慧算力。即隨著數據爆炸式增長,我們進入了一個全新的數位化、智能化的時代,對於計算的需求如雨後春筍,「單兵作戰」的設備以及本地化的數據中心已經遠遠不能滿足隨時隨地的計算需求,需要「端-邊-雲-網-智」的新IT架構為用戶提供無處不在的普慧算力。

由此可見,聯想想成為的並不是生產算力的「水源」,而是「送水人」——將晶片整合成可高效釋放算力的伺服器,更不容易被外界感知。

在這個角色和定位中,聯想集團很「強」——這種強核心是兩個方面。

一是伺服器產品性能;二是數量規模。

在該領域,全球高性能計算榜單TOP500是觀察伺服器算力的最佳參考,而如果打開最新一期全球高性能計算榜單TOP500(2022年11月),就可以感知到上述所說的聯想集團之強。

市場份額占比32%,以160台的供給占比全球第一,甚至領先第二名惠普集團近12個百分點。

而且聯想集團這個算力供應,還具有客戶構成上的普遍性和多元性。

在回答日本經濟新聞社的提問時,聯想集團執行副總裁Kirk Skaugen就曾凡爾賽式透露:全球排名前10的公有雲提供商中,有8個是聯想集團的客戶。

換句話說,聯想伺服器得到了全球客戶的認可,這對國產伺服器廠商來說很不容易。

這些客戶中,外界猜測就包括了雲領域第二名的微軟Azure雲——ChatGPT背後的加速引擎、以及「金主爸爸」。

當初微軟大手筆投資支持OpenAI時,就有評論說,精明的微軟CEO納德拉哪裡會用真金白銀的投資支持,核心提供的還是等價雲服務,既獲得了OpenAI股權,實現了頂級AI研究機構的戰略布局,又給自家Azure雲帶來了客戶和增漲,簡直一石二鳥,這生意虧不了。

只是沒想到,瘋狂的OpenAI還真用大模型搞出了名堂,真用一個偶然創新出的ChatGPT點燃了全球科技網際網路,讓所有玩家陷入大模型、生成式AI的沸騰中。

微軟不僅率先獲益,還把老對手谷歌逼到牆角,動搖了谷歌搜索的現金奶牛,納德拉估計最近夢都是甜的。

而與微軟合作關係密切、還在2022年拿下微軟設備合作夥伴獎的聯想集團,甜頭已經直接展現在財報業績上了。

另外,也是這層關係,也就能理解2021年聯想集團創新科技大會上,為什麼會出現微軟CEO納德拉了,只不過當年的公告還太「行業黑話」,需要結合今日ChatGPT紅利才能真正看明白,當時公告是這樣寫的:未來雙方在PC、雲計算與邊緣計算、服務三個領域展開更深入合作。

不過即便聯想集團成為了ChatGPT這波熱潮的算力提供者,就意味著這種前景可持續嗎?畢竟微軟和ChatGPT的案例有其特殊性,幕後的聯想集團嘗到甜頭有幸運的因素。

但從ChatGPT確立的大模型發展方向來看,趨勢會持續下去,算力供給側還會隨之發生方向性改變。

據《財經十一人》最近基於多位基礎設施人士觀點得出的結論稱,AI算力會對雲計算的財務模型帶來重大影響,背後都是摩爾定律式的指數增長邏輯:

其一,AI算力消耗量、增速,將遠大於通用算力消耗量。信通院2022年數據顯示,2021年中國通用算力規模95 EFlops,增速為24%,占比47%。智能算力規模是104EFlops,增速為85%,占比超50%。這意味著,智能算力會成為雲計算的新一輪增長點。

其二,智能算力的價格高於通用算力。通用算力的價格在不斷降低,由於AI算力相對稀缺,價格目前正在被推高。理論上看,實現規模化運營的AI算力比通用算力的毛利率高10%以上。

其三,AI算力+大模型在垂直行業的使用可以讓新的應用模式產生。比如金融、自動駕駛、醫療研發、智能製造場景下,企業通常需要採購企業的AI大模型開源平台,調教適合自己業務的小模型。這種PaaS化的AI服務可以帶來60%以上的毛利潤。這是目前加深AI算力/AI模型使用的最佳路徑。

這種AI算力方向性的變革,具體到中國市場,還可以推演出更具體影響:

目前不可否認的是,中國雲廠商的AI算力、大模型和微軟存在較大的差距。其原因是,算力規模、數據規模、模型精度都存在差距。以算力規模為例,支撐ChatGPT的智能算力集群至少需要使用上萬張英偉達GPU A100顯卡。一次完整的模型訓練成本超過1200萬美元。

ChatGPT背後的智能算力集群,僅GPU顯卡採購成本就超過10億元。國內目前能夠支撐起類似基礎設施的企業不超過3家。中國雲廠商的數據中心通常只配備了數千張GPU顯卡。原因是採購一片英偉達頂級GPU的成本高達8萬元。一台伺服器通常需要4張-8張GPU,一台GPU伺服器的成本通常超過40萬元。國內伺服器均價為4萬-5萬元。這意味著GPU伺服器的成本是普通伺服器的10倍以上。

所以這波大模型驅動的技術變革浪潮,對中國算力供應玩家的挑戰和機遇,也基本能推導而出了。

首先,必須具備完整、成熟、穩定的智能算力集群基礎設施。

其次,相關產品在綜合性能之外,還需要具備能效優勢——環保且省成本。

於是明確了這兩點結論,大概也就能知曉聯想集團作為ChatGPT紅利背後隱藏贏家,算力前景方向上還會可持續下去的原因了。

如果算力迎來新摩爾定律,不可忽視的就會是能耗問題,國家發展改革委高技術司主要負責人21年曾表示,我國數據中心年用電量約占全社會用電的2%。

換個更直觀的說法是「每年耗電超過2.5個三峽大壩發電量」,摩爾定律是一種指數增長,而三峽大壩發電量是不可能指數增長的。

聯想集團為此研發了領先的「海神」溫水水冷技術,使用50°C溫水通過流動循環帶走熱量,省去了冷水機組和換熱器,還可以利用餘熱為建築供暖,每年電費節省和排放降低超過42%

在最新的全球HPC Green500榜單上,聯想集團交付的Henri系統以每瓦特電力消耗可執行65.091億次浮點運算的認證性能,不僅同時符合國內和國際要求,甚至成為全球最節能的高性能計算系統。

實際上,聯想已經不是你刻板印象里的那個只有電腦的公司了。總體來看,在算力基礎設施業務迎來爆發的同時,聯想集團整體也逐漸完成了轉型:個人電腦以外的業務總營收占比,已經超過了40%。

ChatGPT也好、大模型也好,甚至AI也好,技術創新周期中率先洶湧開來的算力紅利,正在刷新聯想集團,或者更準確地說,把算力供給側的幕後隱形冠軍推到台前。

關鍵字: