盤點Nvidia GTC大會最重要的5項公告

至頂科技 發佈 2024-03-02T03:46:03.003285+00:00

Nvidia在本周舉行的GTC 2023線上大會中發布了太多的公告,遠遠不止於Nvidia具有標誌性的GPU這一範疇。但在篩選了GTC 2023的許多預簡報之後,以下是我們認為最重要的五項公告,外加一項榮譽提名。

Nvidia在本周舉行的GTC 2023線上大會中發布了太多的公告,遠遠不止於Nvidia具有標誌性的GPU這一範疇。但在篩選了GTC 2023的許多預簡報之後,以下是我們認為最重要的五項公告,外加一項榮譽提名。

  • 利用cuLitho加速晶片創新

最令人印象深刻的公告之一併不是直接關於人工智慧的,而是關於加速向市場交付新的、更強大的晶片,如果半導體行業要支持持續不斷的AI創新,這是必不可少的。

Nvidia cuLitho是一個新的算法庫,可以加速計算光刻的基礎計算,即在矽片上印製晶片設計的過程。Nvidia表示,使用cuLitho的速度提高了40倍甚至更高,這將產生兩個關鍵的影響。

首先,提高速度意味著Nvidia 500 DGX H100系統能夠完成40000個CPU的工作量,同時還能支持數據中心系統設計,僅占用1/8的空間和1/9的功率,從而提高晶片製造商的生產力和效率。此外,過去需要兩周才能完成的晶片設計,現在一夜之間即可完成。

Nvidia表示,重要的是,cuLitho將支持新晶片技術的生產,這些技術需要的計算能力是當今晶片的10倍,例如Inverse Curvilinear Masks和ASML High-NA EUV光刻攝像頭。

  • 使用DGX Cloud讓大家都有機會使用自定義的AI模型

AI需要三個步驟:獲取和準備數據,根據數據訓練模型,以及通過應用使用模型進行推理。 儘管Nvidia DGX已經成為主流的、專門為這種AI工作流構建的系統,但企業越來越希望在雲端訓練AI。

這次Nvidia在大會上發布了DGX Cloud,一種基於DGX平台的混合雲訓練即服務產品。DGX Cloud通過將DGX功能推至雲端,使企業能夠立即訪問為生成AI訓練高級模型所需的基礎設施和軟體。Nvidia DGX Cloud讓企業可以通過網絡瀏覽器訪問他們自己的「AI超級計算機」,並通過單一視圖跨雲和本地流程。

這讓科學家可以指向一個數據集,說出結果應該存放在哪裡,然後按開始。因為這是基於雲的,所以底層基礎設施可以自動高效地橫向擴展,使組織能夠從小規模開始,然後根據需要發展壯大。對於那些需要擴展AI基礎設施但又沒有內部資源來優化基礎設施的企業來說,DGX Cloud特別有幫助。此外,DGX Cloud還支持跨多個數據科學團隊共享AI處理。

DGX Cloud目前可在Oracle Cloud和Equinix上使用,未來還將支持Microsoft Azure和Google Cloud。

在推出DGX Cloud的同時,DGX Cloud還公布了一套新的服務,以促進運行三種不同類型的自定義生成式AI模型:

  • NeMo用於生成人類語言並與之對話。
  • Picasso用於生成文本到圖像、文本到視頻、文本到3D模型。
  • BioNeMo用於利用蛋白質的語言加速藥物的發現。
  • 圍繞Genius AI與Medtronic展開合作

Nvidia多年來一直與醫療設備領域的世界領先企業Medtronic公司合作,在機器人輔助手術、手術導航和互操作成像系統領域進行了一系列的創新。

在這次大會上,Nvidia公布了一項新的合作夥伴關係,設計Medtronic基於Nvidia Holoscan的GI Genius AI輔助結腸鏡檢查系統,這是一個全棧的AI基礎設施,用於構建設備並將AI應用直接部署到臨床環境中。GI Genius AI結腸鏡檢查系統將通過一套新的算法為醫生提供實時的AI成像增強功能。

Holoscan的一個關鍵優勢是它與傳感器和模式無關,這讓讓Medtronic能夠將他們多年來構建的、或者是收購的數十種設備整合到他們的AI計劃中。Holoscan讓Medtronic無需構建和維護自身的基礎設施,從而讓Medtronic公司能夠保持快速的創新步伐。

AI的社會影響一直存在爭議,因為AI威脅到許多職業,但是在醫療方面的價值怎麼強調都不為過。如今醫生有可能會錯過很多東西,因為他們不可能看到每個數據集中的每一個異常,但AI可以。我們曾經和幾家使用AI技術的醫療醫生談過,比如波士頓的麻薩諸塞州總醫院,他們說,AI讓他們縮短了診斷時間,把更多時間花在治療上,因為AI在查看數據方面承擔了很多繁重的工作。

  • 用於普及生成式AI的推理平台

AI推理是技術進步中一個越來越重要的領域。我們看到,ChatGPT和其他引擎被整合到一系列解決方案中,包括Microsoft 365。AI推理還支持在聯絡中心使用AI化身、在製造質量控制中進行視頻分析等等。

Nvidia在這次大會上宣布推出了用於AI推理的DGX H100計算平台。據Nvidia稱,DGX H100的性能提高了9倍,網絡速度提高2倍,以及高速可擴展性。微軟宣布,微軟將成為第一個使用DGX H100的超大規模數據中心用戶,並將提供對DGX H100的早期訪問。

此外,Nvidia還發布了Nvidia L4,一款適用於任何標準伺服器的AI、視頻和圖形的單槽薄型加速器。根據Nvidia的說法,L4解碼、運行模型和編碼視頻的速度,要比目前最好的CPU平台快120倍,可以同時運行1040多個高清流,處理圖形的速度快4倍——相比T4生成圖像的速度快2.5倍。在大會上,Google Cloud宣布是L4的早期用戶。

最後,Nvidia宣布推出了H100 NVL,用於標準外形尺寸伺服器的實時大型語言模型推理。這款PCIe GPU適用於任何採用PCIe卡的標準伺服器,但雙寬機箱中有2個GPU通過NVLink橋連接,創建了一個具有188 GB內存的GPU。Nvidia表示,H100 NVL的吞吐量是NVIDIA HGX A100的12倍,可以並行運行模型以減少延遲和縮短完成時間。

  • BlueField-3數據處理單元

Nvidia宣布推出了最新的數據處理單元(DPU)BlueField-3,比上一代DPU的Arm處理核心多2倍,加速器也更多,因此它可以將工作負載的運行速度提高8倍。BlueField-3可以跨雲、高性能計算、企業和加速AI用例卸載、加速和隔離工作負載。

據相關公告顯示,Oracle Cloud Infrastructure已經選擇BlueField-3作為其網絡堆棧。OCI和BlueField-3的結合將支持大規模GPU集群以獲得動態的、始終在線的容量,通過從CPU卸載數據中心基礎設施任務來大幅提升性能和效率。

任何執行遠程計算密集型任務的伺服器都應該使用DPU。基於CPU的伺服器不擅長運行加密和數據包處理等某些任務,這導致企業組織不得不在伺服器上大量超支,而表現卻平平。DPU則可以讓伺服器執行它們應該執行的任務,並讓卸載引擎承擔大部分密集型的任務。

榮譽獎:Omniverse Cloud on Microsoft Azure

Nvidia最後還有一個但同樣有趣的公告是Omniverse Cloud即將登陸Microsoft Azure。這是一款雲原生的平台即服務產品,用於連接、構建和操作元宇宙應用。根據Nvidia的說法,Omniverse已經得到廣泛部署,下載量超過300000次,因此我們給了它一個榮譽獎。Omniverse在Azure雲中的可用性,將為更多正在考慮利用微軟開發元宇宙應用並需要額外企業支持和培訓的公司打開了一扇大門。

公告顯示,微軟和Nvidia將合作把Omniverse直接集成到Microsoft 365中,包括Teams、OneDrive和SharePoint,使用戶能夠直接從業務應用訪問元宇宙功能。

Nvidia的獨特之處不僅在於它的GPU,還在於它對所有AI事物都採用了「全棧」的方法。Nvidia提供完整的交鑰匙型解決方案,使企業組織能夠利用生成式AI、視頻分析和機器人技術等優勢,而不必擔心如何將所有部件組合在一起。這一點如今正變得越來越重要,因為OpenAI和ChatGPT已經引起了人們對AI的新一波興趣。

今年早些時候,Nvidia公司執行長黃仁勛(如圖)曾將ChatGPT稱為AI的「iPhone時刻」,但我並不認同這種說法。蘋果的iPhone之所以起飛大賣,是因為它讓智慧型手機大眾化了,以至於非技術人員也可以使用它。我相信ChatGPT引起了人們的興趣,但需要對其進行簡化以使其可供所有人使用,而這正是Nvidia最擅長的。

關鍵字: