巨大飛躍!給英偉達1.6萬億個晶體管,它就能承托全球互聯網流量

巨大飛躍!給英偉達1.6萬億個晶體管,它就能承托全球互聯網流量
2022年03月23日 01:24 雷鋒網

安裝新浪財經客戶端第一時間接收最全面的市場資訊→【下載地址

  英偉達(Nvidia)一年一度的GTC大會如期而至,兩年一更新的GPU架構Hopper也正式亮相。

  今年,NVIDIA創始人兼CEO黃仁勛在英偉達新總部大樓發布了一系列新品,從新架構GPU H100,到Grace CPU 超級芯片,再到汽車、邊緣計算的硬件新品,以及全面的軟件更新。

  英偉達的全新發布再次向外界宣告,英偉達不止是一家芯片公司,而是全棧計算公司。他們正在加強其在AI、汽車等領域的領導力,同時也在努力占領下一波AI浪潮以及元宇宙的先機。

  當然,作為一家發明GPU的公司,英偉達的全新GPU架構依舊是GTC 2022最值得關注的新品。

  Nvidia Hopper新架構以美國計算機領域的先驅科學家 Grace Hopper 的名字命名,將取代兩年前推出的 NVIDIA Ampere 架構。相比上一代產品,基于Hopper架構的H100 GPU實現了數量級的性能飛躍。

  黃仁勛表示,20個 H100 GPU 便可承托相當于全球互聯網的流量,使其能夠幫助客戶推出先進的推薦系統以及實時運行數據推理的大型語言模型。

  基于H100 GPU構建的各種系統,以及與Grace CPU 超級芯片組合的各種系統,配合英偉達多年構建強大的軟件生態,將成為了英偉達掀起新一代計算浪潮的能量。

  H100 GPU將在今年第三季度出貨,明年上半年開始供貨Grace CPU超級芯片。

  最新Hopper架構H100 GPU的6大突破

  黃仁勛2020年從自家廚房端出的當時全球最大7nm芯片Ampere架構GPU A100,兩年后有了繼任者——Hopper架構H100。英偉達H100 GPU采用專為英偉達加速計算需求設計優化的TSMC 4N 工藝,集成800億個晶體管,顯著提升了AI、HPC、顯存帶寬、互連和通信的速度,并能夠實現近 5TB/s 的外部互聯帶寬。

  H100同時也集多個首個于一身,包括首款支持 PCIe 5.0 的 GPU,首款采用 HBM3 的 GPU,可實現 3TB/s 的顯存帶寬,全球首款具有機密計算功能的GPU。

  H100的第二項突破就是其加速器的 Transformer 引擎能在不影響精度的情況下,將Transformer網絡的速度提升至上一代的六倍。Transformer 讓自監督學習成為可能,如今已成為自然語言處理的標準模型方案,也是深度學習模型領域最重要的模型之一。

  雷峰網(公眾號:雷峰網)了解到,H100 將支持聊天機器人使用功能超強大的monolithic Transformer 語言模型 Megatron 530B,吞吐量比上一代產品高出 30 倍,同時滿足實時對話式 AI 所需的次秒級延遲。

  H100的第三項突破是進一步升級的第二代多實例GPU。上一代產品中,英偉達的多實例GPU技術可將每個A100 GPU分割為七個獨立實例來執行推理任務。新一代的Hopper H100與上一代產品相比,在云環境中通過為每個 GPU 實例提供安全的多租戶配置,將 MIG 的部分能力擴展了 7 倍。

  MIG 技術支持將單個 GPU 分為七個更小且完全獨立的實例,以處理不同類型的任務。

  H100的第四項突破就是其是全球首款具有機密計算功能的加速器,隱私計算此前只能在CPU上實現,H100是第一個實現隱私計算的GPU,可保護 AI 模型和正在處理的客戶數據。機密計算的優勢在于其不僅能確保數據的機密性,同時還不影響性能,可以應用于醫療健康和金融服務等隱私敏感型行業的聯邦學習,也可以應用于共享云基礎設施。

  H100的第五項突破是在互聯性能的提升,支持第4代 NVIDIA NVLink。如今的AI模型越來越大,帶寬成為了限制超大規模AI模型迭代的阻礙。英偉達將NVLink 結合全新的外接 NVLink Switch,可將 NVLink 擴展為服務器間的互聯網絡,最多可以連接多達 256 個 H100 GPU,相較于上一代采用 NVIDIA HDR Quantum InfiniBand網絡,帶寬高出9倍。

  這項突破可以帶來的直接提升是,利用 H100 GPU,研究人員和開發者能夠訓練龐大的模型,比如包含3950億個參數的混合專家模型,訓練速度加速高達9倍,訓練時間從幾周縮短到幾天。

  H100的第六個突破是對新的 DPX 指令可加速動態規劃,適用于包括路徑優化和基因組學在內的一系列算法,英偉達的測試數據顯示,與 CPU 和上一代 GPU 相比,其速度提升分別可達 40 倍和 7 倍。

  另外,Floyd-Warshall 算法與 Smith-Waterman 算法也在H100 DPX指令的加速之列,前者可以在動態倉庫環境中為自主機器人車隊尋找最優線路,后者可用于DNA和蛋白質分類與折疊的序列比對。

  硬件突破之外,英偉達也發布了一系列相應的軟件更新,包括用于語音、推薦系統和超大規模推理等工作負載的 NVIDIA AI 軟件套件,還有60多個針對CUDA-X的一系列庫、工具和技術的更新,能夠加速量子計算和 6G 研究、網絡安全、基因組學和藥物研發等領域的研究進展。

  顯而易見,H100 GPU的六項突破,帶來的是更高的計算性能,但這些性能的提升和優化,全都指向AI計算,這也是英偉達進一步擴大在AI計算領域領導力的體現。

  NVIDIA Eos,比全球最快超級計算機AI性能快 4 倍

  有了性能升級的GPU,英偉達的第四代DGX系統DGX H100也隨之亮相,包括DGX POD和DGX SupePOD兩種架構,能夠滿足大型語言模型、推薦系統、醫療健康研究和氣候科學的大規模計算需求。

  每個 DGX H100 系統配備八塊 NVIDIA H100 GPU,并由 NVIDIA NVLink連接,能夠在新的 FP8 精度下達到 32 Petaflop 的 AI 性能,比上一代系統性能高6倍。每個DGX H100 系統還包含兩個NVIDIA BlueField-3 DPU,用于卸載、加速和隔離高級網絡、存儲及安全服務。

  新的 DGX SuperPOD 架構采用全新的 NVIDIA NVLink Switch 系統,通過這一系統最多可連接32個節點,總計256塊H100 GPU。第四代NVLink與NVSwitch相結合,能夠在每個DGX H100系統中的各個GPU之間實現 900 GB/s 的連接速度,是上一代系統的 1.5 倍。

  新一代DGX SuperPOD性能同樣顯著提升,能夠提供1 Exaflops的FP8 AI性能,比上一代產品性能高6倍,能夠運行具有數萬億參數的龐大LLM工作負載,有助于推動氣候科學、數字生物學和 AI 未來的發展。

  基于DGX H100,英偉達將在今年晚些時候開始運行全球運行速度最快的 AI 超級計算機 —— NVIDIA Eos,“Eos“超級計算機共配備 576 臺 DGX H100 系統,共計 4608 塊 DGX H100 GPU,預計將提供 18.4 Exaflops 的 AI 計算性能,比日本的Fugaku(富岳)超級計算機快 4 倍,后者是目前運行速度最快的系統。

  在傳統的科學計算方面,Eos 超級計算機預計將提供 275 Petaflop 的性能。

  黃仁勛說:“對于 NVIDIA 及OEM 和云計算合作伙伴,Eos 將成為先進 AI 基礎設施的藍圖。”

  576個DGX H100系統能夠構建一臺全球運行速度最快的AI系統,少量的DGX SuperPOD 單元組合,也可以為汽車、醫療健康、制造、通信、零售等行業提供開發大型模型所需的 AI 性能。

  黃仁勛提到,為支持正在進行AI開發的DGX客戶,NVIDIA DGX-Ready軟件合作伙伴(包括Domino Data Lab、Run:ai和Weights & Biases等)提供的MLOps解決方案將加入“NVIDIA AI 加速”計劃。

  為了簡化AI部署,英偉達還推出了DGX-Ready 托管服務計劃,能夠為希望與服務提供商開展合作來監督其基礎設施的客戶提供支持。通過新的 DGX-Ready 生命周期管理計劃,客戶還可以借助新的 NVIDIA DGX 平臺升級其現有 DGX 系統。

  Grace CPU 超級芯片,最強大的CPU

  去年的GTC 21,英偉達首款數據中心CPU Grace亮相,英偉達的芯片路線也升級為GPU+DPU+CPU。

  今年的GTC 22,英偉達由推出了首款面向 AI 基礎設施和高性能計算的基于Arm Neoverse的數據中心專屬CPU Grace CPU 超級芯片。

  Grace CPU 超級芯片是專為AI、HPC、云計算和超大規模應用而設計,能夠在單個插座(socket)中容納 144 個 Arm 核心,在 SPECrate 2017_int_base 基準測試中的模擬性能達到業界領先的 740 分。根據 NVIDIA 實驗室使用同類編譯器估算,這一結果較當前DGX A100搭載的雙CPU(AMD EPYC 7742)相比高 1.5 倍以上。

  黃仁勛稱贊:“Garce的一切都令人驚嘆,我們預計Grace超級芯片屆時將是最強大的CPU,是尚未發布的第5代頂級CPU的2到3倍。”

  據介紹,依托帶有糾錯碼的LPDDR5x 內存組成的創新的內存子系統,Grace CPU 超級芯片可實現速度和功耗的最佳平衡。LPDDR5x 內存子系統提供兩倍于傳統DDR5設計的帶寬,可達到1 TB/s ,同時功耗也大幅降低 ,CPU加內存整體功耗僅500瓦。

  值得注意的是,Grace CPU超級芯片由兩個CPU芯片組成,通過NVLink-C2C互連在一起。NVLink-C2C 是一種新型的高速、低延遲、芯片到芯片的互連技術,將支持定制裸片與NVIDIA GPU、CPU、DPU、NIC 和 SOC 之間實現一致的互連。

  借助先進的封裝技術,NVIDIA NVLink-C2C 互連鏈路的能效最多可比NVIDIA芯片上的PCIe Gen 5高出25倍,面積效率高出90倍,可實現每秒900GB乃至更高的一致互聯帶寬。

  得益于Grace CPU 超級芯片可以運行所有的英偉達計算軟件棧,包括NVIDIA RTX、NVIDIA HPC、NVIDIA AI 和 Omniverse。Grace CPU超級芯片結合NVIDIA ConnectX-7 網卡,能夠靈活地配置到服務器中,可以作為獨立的純CPU系統,或作為GPU加速服務器,搭載一塊、兩塊、四塊或八塊基于Hopper的GPU,客戶通過維護一套軟件棧就能針對自身特定的工作負載做好性能優化。

  今日發布的NVIDIA Grace超級芯片系列以及去年發布的Grace Hopper超級芯片均采用了NVIDIA NVLink-C2C 技術來連接處理器芯片。

  英偉達表示,除NVLink-C2C外,NVIDIA還將支持本月早些時候發布的 UCIe(Universal Chiplet Interconnect Express,通用小芯片互連傳輸通道)標準。與NVIDIA芯片的定制芯片集成既可以使用 UCIe 標準,也可以使用 NVLink-C2C。

福利來了!低位布局良機,送你十大金股!點擊查看>>
海量資訊、精準解讀,盡在新浪財經APP

責任編輯:王茂樺

人氣榜
跟牛人買牛股 入群討論
今日熱度
問股榜
立即問股
今日診股
產品入口: 新浪財經APP-股票-免費問股
產品入口: 新浪財經APP-股票-免費問股
產品入口: 新浪財經APP-股票-免費問股

APP專享直播

1/10

熱門推薦

收起
新浪財經公眾號
新浪財經公眾號

24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)

7X24小時

  • 03-28 望變電氣 603191 --
  • 03-25 銘利達 301268 --
  • 03-24 中復神鷹 688295 29.33
  • 03-23 天益醫療 301097 52.37
  • 03-23 長光華芯 688048 80.8
  • 產品入口: 新浪財經APP-股票-免費問股
    新浪首頁 語音播報 相關新聞 返回頂部