1億神經元計算系統誕生,半導體巨頭新一代計算版圖初現

deeptech深科技 發佈 2020-03-19T05:17:30+00:00

「這些問題類似於我們大腦平時思考和解決的問題,像是如何計劃未來的任務和決定,如何計劃肢體活動軌跡等等。它們都可以被視為定義的非常好的運算問題。我們認為,對於新架構和Pohoiki Springs 來說,存在一類支持大規模、高效率的運算任務。在執行這些任務的時候,我們的新架構並不一

人類大腦由 860 億個互相連接的神經元組成。科學家們希望在晶片中也能儘可能多的複製這種連接。

今天,英特爾宣布推出其最新神經擬態系統 Pohoiki Springs,首次將計算能力擴展到了 1 億個,將 Loihi 的神經容量增加到一個小型哺乳動物大腦的大小。

Pohoiki Springs 是一個數據中心機架式系統,是英特爾迄今為止開發的最大規模的神經擬態計算系統。它將 768 塊 Loihi 神經擬態研究晶片集成在 5 台標準伺服器大小的機箱中。

英特爾的研究人員認為,與當今最先進的傳統計算機相比,神經擬態系統擁有超級並行性和異步信號傳輸能力,可以在明顯降低功耗的同時顯著提升性能。

英特爾神經擬態計算實驗室主任 Mike Davies 介紹稱:「Pohoiki Springs 將我們的 Loihi 神經擬態研究晶片擴展了 750 倍以上,同時以低於 500 瓦的功率運行。當前,一些工作負載在傳統架構(包括高性能計算 [HPC] 系統)上運行緩慢。而 Pohoiki Springs 系統則讓我們的研究合作夥伴能夠探索加速處理這些工作負載的方法。」 英特爾將向其於 2018 年成立的_英特爾神經擬態研究社區_(INRC)成員提供這一基於雲的系統,以擴展其神經擬態工作來解決更大規模且更複雜的問題。

在今天早上接受包括 DeepTech 在內的媒體採訪時,Mike Davies 表示,Pohoiki Springs 能夠最直接發揮它的價值的方向,將包括一些非常難的運算問題,比如 NP Complete 和 NP Hard 之類的問題。

「這些問題類似於我們大腦平時思考和解決的問題,像是如何計劃未來的任務和決定,如何計劃肢體活動軌跡等等。它們都可以被視為定義的非常好的運算問題。

我們認為,對於新架構和 Pohoiki Springs 來說,存在一類支持大規模、高效率的運算任務。在執行這些任務的時候,我們的新架構並不一定會在吞吐量上超過傳統解決方案,因為傳統方案在平行運算上有自然優勢,不過我們期待新架構的優點是降低延遲( Latency),還有能耗優勢。我們認為,針對同一個解決方案來說,神經擬態架構比傳統架構的能耗少數千倍。節省的能耗可以反映在降低運營開銷上,因此具備能耗優勢也非常重要」,他說。

復盤英特爾神經擬態硬體之路

神經擬態計算(Neuromorphic Computing)是一個由硬體開發、軟體支持、生物模型相互交融而成的古老領域,旨在基於仿生的原理讓機器擁有類人的智能。

低功耗、高容錯、創造性…… 人腦有太多值得機器追趕的能力,因此也是很多計算科學家為之嚮往的存在。在人腦這個僅占 3% 人體質量的器官中,1000 億個神經元攜 1000 萬億個突觸相連接。每一秒都有神經元衰老死亡 「退役」 的情況下,它仍能運轉計算著世界撲面而來的巨大信息量。而功耗只有 20 瓦。

1980 年,人類首次打開神經擬態計算。超大規模集成電路 (VLSI) 發明者之一、加州理工學院傳奇人物 Carver Mead 在 Proceeding of IEEE 發表文章 Neuromorphic Electronics Systems,第一次提出神經擬態概念,並設想用 CMOS 模擬電路去模仿生物視網膜 outer plexiform layer,搭建具有生物計算特性的系統。

最初的神經擬態晶片,基本是為了人腦反向工程而存在,即為生物解剖、算法及模型團隊提供硬體驗證平台。

但是隨著神經擬態計算的發展,這種和傳統計算架構完全不同地將計算和存儲高度整合的技術,展現了更大的潛力。不僅僅是學術機構,包括 IBM、英特爾等大型科技公司也加入到了這個領域中。

2017 年,作為英特爾研究院的一個研究課題,英特爾開發了代號為 Loihi 的第一款自主學習神經擬態晶片,在神經擬態硬體的開發上邁出一步。

英特爾的 Loihi 神經擬態晶片把訓練和推理整合到一個晶片上,並實現了計算和存儲功能的整合:單晶片中的 128 個小核各包含 1000 個神經元硬體設計架構,模擬多個「邏輯神經元」,支持多種學習模式的可擴展的片上學習能力,實現多種不同的神經網絡突破。Loihi 的名字其實取自於夏威夷海底的一座不斷噴發的活火山,每一次噴發都會擴大夏威夷島的範圍,英特爾將晶片取名 Loihi,就是希望其能夠通過不斷的自我學習,可以提供更加強大的人工智慧的能力。

因為模擬了大腦根據環境的各種反饋來學習如何操作的運作方式,Loihi 在能耗上非常節能,採用一種新穎的 「異步脈衝」 的方式來計算,利用了可根據時間調節的脈衝和可塑觸突。資料顯示,與訓練人工智慧系統的通用計算晶片相比,Loihi 晶片的能效提升了 1000 倍。

圍繞新生的計算產品,生態的建設同樣是一個重要事項。於是,在 2018 年,英特爾神經擬態研究社區(INRC)的建立,希望進一步推動神經擬態算法、軟體和應用程式的開發。

到了 2019 年,英特爾推出 Pohoiki Beach,包含 64 塊 Loihi 研究晶片,擁有 800 萬神經元,能夠提供更大的計算規模和更強的計算能力。目前 Pohoiki Beach 已經可以供廣大研究人員使用。通過 Pohoiki Beach,研究人員可以利用英特爾的 Loihi 研究晶片開展實驗。在稀疏編碼、圖搜索、同步定位和建圖(SLAM)、路徑規劃、約束滿足問題等專業應用領域,Loihi 能讓用戶以千倍於 CPU 的速度和萬倍於 CPU 的效率處理信息。

Pohoiki Beach 是英特爾神經擬態研究工作的重要里程碑,它為英特爾研究院將該架構擴展到 1 億個神經元的計劃奠定了基礎。

直至今天,這個計劃終於實現,英特爾正式推出 「Pohoiki Springs」 的 Loihi 系統。

英特爾和 INRC 研究人員一直在對外展示 Loihi 的各種能力,包括實時識別手勢、使用新型人造皮膚閱讀盲文、使用習得的視覺地標確定方向,以及學習新的氣味模式。所有這些功能都只需要消耗數十毫瓦的電能。到目前為止,這些小規模示例顯示出極好的可擴展性,英特爾相信,當運行更大規模的問題時,Loihi 比傳統解決方案更加快速高效。這模仿了自然界中從昆蟲大腦到人類大腦的可擴展性。

英特爾介紹,目前正為 Loihi 開發的頗具前景且高度可擴展算法示例包括:

  • 約束滿足:約束滿足問題在現實世界中無處不在,從數獨遊戲到航班調度,再到快遞配送規劃。這需要對大量潛在的解決方案進行評估,以找出一個或幾個能夠滿足特定約束的解決方案。Loihi 可以通過高速並行探索多個不同的解決方案來加速解決此類問題。
  • 搜索圖和模式:每天,人們都會在基於圖的數據結構中進行搜索,以找到最佳路徑和緊密匹配的模式,例如獲取駕駛方向或識別人臉。Loihi 已展示出快速識別圖中的最短路徑和執行近似圖像搜索的能力。
  • 優化問題:可對神經擬態架構進行編程,使其動態行為能夠隨時間的推移對特定目標進行數學優化。此行為可應用於解決現實場景下的優化問題,例如最大化無線通信信道的帶寬,或分配股票投資組合,以在目標收益率下最小化風險。

由此也不難看出,與此前的產品類似,Pohoiki Springs 仍將是一款強調科研目的的產品。

半導體老將的新計算版圖正在成型

據了解,英特爾的 Pohoiki Springs 等神經擬態系統仍處於研究階段,其設計目的並非取代傳統的計算系統,而是為研究人員提供一個工具來開發和表征新的神經啟發算法,用於實時處理、問題解決、適應和學習。

那麼,作為一家商業公司,英特爾押注神經擬態計算的最大驅動力是什麼?

在英特爾的官網,神經擬態計算被描述成「Next Generation of AI 」。

對於英特爾來說,隨著 AI 時代的到來,這家半導體老兵也在朝著 「以數據為中心」 轉型,數據的變化一直是其關注的重點。過去 20 年來,數據經歷了非常大的變化,具體到用以進行計算的數據,人類還將對其進行更大規模的智能處理。在這個過程中,數據和計算之間的技術演進邏輯也在變化。

正如英特爾中國研究院院長宋繼強曾在一場媒體活動中介紹的,此前,人類主要以對聲音數據、視頻數據、圖片數據等數據進行多媒體計算為主,即只是進行編輯壓縮,不會做識別和理解。但是後來,人類開始對這些數據進行智能的處理;與此同時,數據產生的來源和流向也發生了變化,大量的數據開始由終端往雲上走;在新的智能時代,為了更好地處理數據,很多人工智慧算法隨之誕生,這些算法模型中有參數,於是便誕生了數據之上的數據,即源數據,其中的量可能是百萬級別的。

無論是數據的處理,還是提高計算效率、改善傳輸存儲,都出現了新的要求和新的優化,英特爾希望能在愈發多元化的數據市場、計算市場延續優勢,需要配備更豐富的 AI 計算硬體組合。

目前,這家公司已經推出了包括 VPU、FPGA、CPU、GPU、NNP 到 AI 專屬晶片的多種產品,以及配套的軟體開發技術,封裝、測試技術等,但仍需要更前沿的布局來補充,即所謂對的「面向未來的計算」,勾畫新的計算版圖。

據了解,在計算硬體的規划上,英特爾一方面正在已有的硬體架構方式上繼續突破,另一個重要的方向在於——押注突破式計算技術。其中就包括神經擬態計算和量子計算。

除了圍繞 Loihi 的神經擬態計算以外,英特爾的量子計算布局則包括兩大內容,一則是通過低溫超導量子位的方式實現量子計算,這一點與行業的主流方向一致,英特爾的進展是正在開發 49 個超導量子位測試晶片,並測試它的容錯能力、糾錯能力和連接性。

另一個內容則是基於英特爾在傳統半導體領域發展的矽的加工工藝和測試工藝,利用矽電子自旋表示出量子態。據了解,在這個方向上,英特爾的 300 毫米、12 寸晶圓的生產線上已經具備相應的生產能力,有兩個量子位的晶片已在測試,且公司正在為規模化生產加大投入。

不過,在神經擬態計算的規划上,諸如 IBM 和英特爾這樣的大公司,卻並不急於推出真正的商業化產品。儘管在國內外,已經有幾家初創公司正在開啟神經擬態計算的商業化進程。例如從去年登上 Nature 的清華 「天機」 晶片團隊中走出的靈汐科技,以及從來自歐洲、背靠著名研究機構蘇黎世大學及蘇黎世聯邦理工神經信息研究所的 ai-CTX。

對此,Mike Davies 回答 DeepTech 提問時表示:「對於英特爾來說,商業化的挑戰是我們仍需發現大量的該系統可以有效解決的問題。我們對高度專業化的點解決方案的商業化並不感興趣, 即使看起來有些問題我們可以很好地解決,比如人造嗅覺,炸彈或有毒化學物質 / 氣味檢測等等。但這些都需要高度專業化的定製方案,晶片也需要針對某項任務特殊定製。

我們最感興趣的,還是找到一個可以廣泛使用的新架構,類似於傳統的馮 · 諾依曼架構,但可以更高效地解決各種各樣的計算算法和應用。當然,在某些情況下馮 · 諾依曼架構還是會比我們快,但我們希望支持更多的運算種類。也許會有其他小公司也在做類似的研發,專門針對某個或某一類任務定製獨特的解決方案,這或許會讓他們更早拿出產品。但對於我們自己來說,距離產品面世還需要數年的時間。」

正如其所言,儘管是一個古老的科學概念,但神經擬態計算還是新興的技術領域,也是直到近幾年才有了更多實際價值的展示。

而且,該領域仍然由神經科學家、機器學習研究者所主導,並未被大量的軟體開發人員和工程師所熟知。這些計算系統投入到實際的運營中,還將要求開發人員們改變他們的思維方式,畢竟,傳統的存算分離馮 · 諾依曼架構已經支配了計算的運行長達近 70 多年之久。

關鍵字: