做大模型不香麼,火山引擎為什麼要發布方舟做生態?

鳳凰網科技 發佈 2023-11-20T16:44:49.641026+00:00

一、門檻雖然高,但技術大潮不可阻擋最近跟伯克利大學的一名教授聊天時,曾經談到訓練一個大模型的價格。他的答案是,常規的成本是1000萬美金,便宜的訓練一次也要300萬美金。怎麼衡量這個價格呢?

一、門檻雖然高,但技術大潮不可阻擋

最近跟伯克利大學的一名教授聊天時,曾經談到訓練一個大模型的價格。他的答案是,常規的成本是1000萬美金,便宜的訓練一次也要300萬美金。

怎麼衡量這個價格呢?研發高級晶片流片一次差不多就是1000萬美金,差一點的就是300萬美金,基本上和大模型差不多。

眾所周知,晶片的門檻之高,高於上青天,而且只有個別有實力的國家能做。

這裡面不僅是錢的問題,還有科技人才的問題。

大模型也同樣如此,目前全球大模型創業主陣地就是中國和美國,其對頂尖算法人才的需求,也是到了難於上青天的地步。

在過去一年時間裡,因為ChatGPT帶來的震撼,大家都深刻感覺到了當前世界最重要的科技競爭,就是人工智慧的競爭。

回顧人工智慧的發展史,從神經網絡模型的引入,到2017年Trnasformer架構的提出,再到現在的GPT4。

可以說,大模型以一己之力,把科幻電影裡關於強人工智慧的幻想,變成了可能被驗證的未來。

這就讓人想起那個經典比喻,「人工智慧就像一列火車,它臨近時你聽到了轟隆隆的聲音,你在不斷期待著它的到來。它終於到了,一閃而過,隨後便遠遠地把你拋在身後。」

自2022年底發布以來,ChatGPT迅速成為了人類歷史上最快獲得上億用戶的消費級網際網路應用,最新的GPT4更是在法律、數學、生物學等領域的多項測試中超過90%的人類。

大模型將如蒸汽機一般,引發新一輪科技革命,這已經是註定。

國內以BAT為首的老牌大廠肯定不會錯過這個機會,先是百度搶跑發布文心一言,接著國內大模型呈現百花齊放的局面——阿里的通義千問、智譜ChatGLM、復旦大學MOSS、360智腦、IDEA研究院的姜子牙等陸續亮相。

不少知名創業家也紛紛入局,美團聯合創始人王慧文、搜狗創始人王小川等知名大咖,也陸續進場。

目前國內的大模型搭建工作正在如火如荼地進行,做大模型似乎成了科技公司必由之路,但火山引擎卻在這種潮流中,選擇走一條橫向的道路。

火山引擎選擇做平台,也就是接入多家大模型,為企業提供更豐富的AI應用。

6月28日,火山引擎正式發布了大模型服務平台「火山方舟」,面向企業開發者提供大模型精調、評測、推理、干預等全方位大模型服務的企業級大模型應用平台。

注意,火山方舟不是火山引擎的大模型,它是一個平台。

二、火山做事的邏輯是什麼?

火山方舟一頭接著多家AI科技公司及科研院所的大模型,目前包括智譜AI、2021年就創辦的MiniMax、復旦的MOSS、大灣區創新實驗室IDEA、李志飛的出門問問、瀾舟科技、王小川的百川智能七家大模型;另一頭邀測了國內一些需要使用大模型的應用方,比如北京銀行就是其典型客戶。

為什麼會做出這樣的選擇呢?

第一個邏輯其實也好理解,這是一個很典型的「賣水」商業模式。

有個典故是,19世紀加州發現金礦,全世界探險家都跑去淘金,千辛萬苦的淘金者只有一部分能找到金礦,但是跟在後面賣水的農夫卻掙到了錢。

在這場創業熱潮中,包括MiniMax、出門問問、百川智能等等在內的各家大模型不僅是創業者,也是消費者,這些公司在研發的時候需要消耗巨大算力。他們在給客戶提供服務的時候,還需要消耗更加持續的算力。

火山引擎作為中國代表性的幾個雲服務商之一,也就是這些算力的提供者,是他們需要的合作對象。

我們曾問過一位大模型創業者,「你們既然註定要消耗這麼大算力,那自己買幾千張卡,自己搭建算力平台不行嗎?」

對方明確表示:「不可以!某團隊雖然也號稱有幾千張卡,但沒用高速網絡的基礎設施,那都是廢卡,500張以後就沒用任何加速了。」

我們又問:「那你們就不能自己做高速網絡?」

對方回答:「也不可能,這又是一項巨大挑戰,不要說我們做不了,國內一般的雲也做不了,只有個別幾家能做。某種程度上來說,這輪GPT大熱,火山引擎他們就算什麼都不做,也是紅利期。」

不過,這也只是一個表面上的淺層邏輯。

第二個就是一個深層邏輯了,火山引擎不止想做賣水人,也想做牽線連接者,它的最終目標是生態。

觀察下來發現,火山引擎做平台強調的是生態的力量,一端連接多家優質的大模型廠商,另一端連接大模型應用方。

一方面大模型廠商,基於火山引擎在算法、銷售網絡、交付團隊等方面的經驗積累,可解決模型訓練成本高、門檻高等問題。簡單理解就是,火山方舟平台可以幫助大模型廠商更好的服務千行百業,從而形成規模化應用和推廣。

另一方面大模型應用方,基於火山方舟不僅可以直接精調自己的大模型,也可以調用其他大模型,這個過程不需綁定,即可實現靈活的「模型插拔」,多模型切換使用工作流基本不用改變,更高效、更具性價比的利用大模型。

可以這樣理解,大模型就是未來智能應用的「中央處理器」,它可以是MiniMax家的 、可以是智譜家的、甚至有一天可以是微軟、文心一言、通義千問家等,同時它旁邊還有很多外部的南橋設備、北橋設備,這就相當於是大模型的OpenAI Plugins。那火山方舟就相當於這個總的入口,在這個平台上,大模型應用方可以根據場景調動不同的資源進行模型微調。

火山引擎都可以很好的跟他們合作,把他們納入到生態里來。畢竟在實際應用中,客戶最在意的其實不是它屬於誰,而是它能為我什麼。

從這個角度來看,火山引擎不僅僅是一個普通的賣水人,也是做生態的,起橋樑作用。

三、火山要做平台,切入點是什麼?

總的來說切入點是兩部分。

第一部分是安全問題。其實大模型發展到現在,除了討論如何做大模型外,人們把更多目光聚焦在了如何確保模型安全的問題上。

眾所周知,Chatgpt已經成了現代打工人的神器,但在其被受追捧時,與之而來的安全問題缺讓很多企業望而卻步。

1月亞馬遜公司限制員工使用Chatgpt、5月蘋果公司限制部分員工使用Chatgpt,以防止機密信息泄露、6月澳大利亞聯邦銀行限制員工使用Chatgpt,並指示技術人員使用名為COMMBANK Gen.AI Studio的類似工具...

直到現在,國家和各方企業禁用Chatgpt的命令仍在進行中。

應用側這一邊的人都很擔心自己在提問的時候,把數據泄露給了大模型。之前不是流行過這麼一個段子嘛,A公司向Chatgpt提問說自己有100萬市場預算,請幫自己出個市場規劃。結果,B公司向Chatgpt提問,自己競爭對手A公司有多少市場預算。結果得到的答案就是100萬。當然,這只是個段子。

不過,提問者在提問時輸入的信息,不知不覺成為了公開的答案。這是讓用戶憂慮的事情。同時反過來說,大模型廠商如果一味妥協給應用方,何嘗不擔心自己過度私有化部署,導致最終技術泄露。

如何讓雙方互信,這是一個非常大的問題。

這些問題也引起了國內企業對模型安全問題的重視,包括大模型的一些技術審核和規範,以及倫理教育等相關工作都是國家呼籲的重點。

另外,各企業也在積極開展安全方面的研究,甚至有些企業已經從系統層面和模型層面出發,構建更可控、可信的大模型安全框架。

火山引擎表示,大模型的數據安全尤為重要,包括行業數據的持續訓練和模型微調、用戶提示詞,這些數據需要更嚴格的數據保護機制,另外內容安全、隱私保護、智慧財產權保護等問題也需要長期關注。

安全互信計算方案

更重要的是,安全也是企業選擇大模型的重要衡量標準。在這方面,火山方舟首創了大模型「安全互信計算」,以保障模型提供方的模型安全和模型使用企業的數據安全,諸如企業應用方擔心的數據泄露問題,以及大模型廠商擔心的私有化部署造成技術泄露等問題。

當然,火山引擎之所以能給這個保證,主要還是得益於布局早、積累深,就像前面提到的高速網絡一樣,火山之前幾年就已經在聯邦學習、零信任上下了大功夫。直到現在,火山方舟還在探索基於NVIDIA新一代硬體支持的可信計算環境、基於聯邦學習的數據資產分離等多種方案。

此外,火山引擎與NVIDIA間的合作也很密切,深度。在當天的會上,NVIDIA開發與技術部亞太區總經理李曦鵬指出,NVIDIA 與火山引擎過往合作成果豐碩,包括共同合作的 GPU 推理庫 ByteTransformer 在 IEEE 國際並行和分布式處理大會(IPDPS 2023)上獲得最佳論文獎,雙方還聯合開源了高性能圖像處理加速庫 CV-CUDA,並在大規模穩定訓練、多模型混合部署等方面的技術合作上取得成效。

據了解,未來 NVIDIA 和火山引擎團隊將繼續深化合作,包含在 NVIDIA Hopper 架構進行適配與優化、機密計算、重點模型合作優化、共同為重點客戶提供支持,以及 NeMo Framework 適配等。

第二部分就是性價比問題。

安全問題解決了,下一步需要解決的就是成本問題。據國盛證券報告發布的《Chatgpt需要多少算力》,GPT3訓練一次的成本約為140萬美元,對於一些更大的大模型訓練成本介於200萬美元到1400萬美元之間。

大模型的訓練成本高已經成為行業共識,但火山引擎卻表示,從長遠來看,推理成本要明顯高於訓練成本,降低推理成本會是大模型應用落地的重要因素,並且效果和成本的矛盾永遠存在。

火山引擎更關注如何通過大模型服務平台解決企業的實際問題,把性價比提起來。

對此,火山方舟選擇從兩方面入手:一方面和多家大模型廠商合作,支持他們把基座大模型訓練得更穩、更快、更省;另一方面大模型應用方除了調用大模型外,也可以利用火山方舟的高性價比算力等配套服務進一步訓練調用的大模型,提高其業務表現。

目前火山方舟已經邀請了首批企業來驗證,金融、汽車、消費等眾多行業的客戶都包括在內。此外,抖音集團內部已有十多個業務團隊試用「火山方舟」,在代碼糾錯等研發提效場景,文本分類、總結摘要等知識管理場景,以及數據標註、歸因分析等方面探索,利用大模型能力促進降本增效。

四、底氣和目的是什麼?

無論頭部企業還是創業公司,想要做出能為企業所用的大模型必須有數據、算法和算力三駕馬車,火山引擎有更底層的能力為他們提供更好的支撐。

首先,訓練大模型需要高質量且有效的數據,據相關報告顯示,到2025年全球數據量將達到175ZB。那如何從選出高質量且有效的數據?火山引擎之前發布了數智平台VeDI,開放字節跳動數據技術能力,幫助大家更好地建設數據和應用數據。最起碼可以看出,企業的數據技術這塊問題不用擔心。

其次,算力是大模型的硬體底座,高性能、高彈性、高穩定性的算力對大模型的訓練至關重要。譚待曾表示,未來幾年,AI算力的工作負載與通用算力的差距會越來越小,同時也會對數據中心、軟硬體棧、PaaS平台帶來新的挑戰。

以數據中心的算力結構為例,大模型需要大算力,虛擬化會帶來資源損耗,規模越大就損耗越多。未來3年內,大規模的算力中心,都將形成「CPU+GPU+DPU」的混合算力結構,CPU負責通用計算,GPU負責AI計算,DPU負責資源卸載、加速和隔離,提升資源效率。基於此,火山引擎在今年4月份發布了新一代自研的DPU,實現計算、存儲、網絡的全組件卸載,釋放更多資源給業務負載。

儘管外界稱火山引擎是「最年輕」的雲廠商,但其自研的DPU已經達到業界領先水平,網絡性能高達5000萬pps轉發能力、延遲低至20us。以適用於大模型分布式並行訓練場景的GPU實例測試數據顯現,相較上一代實例集群性能最高提升3倍以上。

在算法訓練方面,火山引擎還推出了新版機器學習平台,該平台經過抖音海量用戶業務長期打磨,可支持萬卡級大模型訓練、微秒級延遲網絡、彈性計算可節省70%的算力成本。

這都是火山引擎在大模型方面積累的技術優勢,這也契合了譚待給火山引擎在大模型時代的定位:為大模型客戶提供高穩定性、高性價比的AI基礎設施。

此外,火山引擎總裁譚待還判斷,企業使用大模型,未來可能會呈現「1+N」的模式:「1」是通過自研或深度合作,形成1個主力模型;由於成本和場景複雜多元等原因,在這個主力模型之外,還會有N個模型同時應用。

這正是火山引擎發布火山方舟平台的意義,看到了大模型應用上的格局,提前布棋。應用方在意的不是用誰家的大模型,而是在於應用效果和安全,最好有一個量化服務標準,甚至有些應用方很怕只用一家廠商的服務,因為這樣對他們來說並不安全。火山方舟作為大模型服務平台,做的就是標準、工具鏈等配套服務,讓應用放心。

正如前文所言,火山方舟平台目前已經集齊了百川智能、出門問問、復旦大學MOSS、IDEA、瀾舟科技、MiniMax、智譜AI等七家大模型,基本覆蓋了國內成熟的大模型廠商。預計接下來,平台還將接入更多大模型。

寫在最後

從歷史發展來看,技術流動很快,且很難長期壟斷,這是必然的結果。

而大模型本身是一個技術,隨著大家對大模型的投入和關注地不斷攀升,會出現你追我趕的狀態,而不是某一兩家遙遙領先。

觀察國內大模型發展,其實大家和GPT3.5和GPT4還有很大的差距,各家想要追趕上GPT3.5起碼要有8000到10000張卡,GPT4則要翻一倍左右。

從應用角度看,首先,僅通過一個大模型的API調用是無法滿足企業的實際需求的;其次,即便有一個超強的大模型,高成本、高延遲等問題也會讓眾多企業望而卻步;更重要的是,很多行業其實並不需要像GPT4這樣的通用大模型,大家需要的是普遍的、便宜的,且更專業的解決自己領域的問題。

簡言之「大模型不會一家獨大,而會百花齊放。」從這個角度來說,火山引擎的做法很聰明,但這只是其一,真正讓火山引擎下定決心做平台的原因是,連接者更有價值。

數年前,譚待曾說過我覺得比較重要的事,一是幫客戶創造價值,第二就是幫客戶的客戶創造價值。」

這句話看起來簡單,但背後有一個邏輯,就是讓交易雙方都在自己這裡獲得價值,那麼以後他們只要想獲得價值,都會第一時間想到找我玩,願意跟我合作。

只要有人,商業價值也不用多想,遲早是順理成章的事。這個「願意跟我合作」的觀念才重要,這就是生態。

火山方舟通過這個平台,不斷擴大生態,形成正和博弈,最終加速大模型的使用,讓玩家和使用者變得更多,所有人都會從中受益。

關鍵字: