來源:華爾街見聞
英偉達CEO黃仁勛在COMPUTEX大會上拋出多個重磅信息,包括新的機器人設計、游戲功能、廣告服務和網絡技術。其中最為引人矚目的是,搭載256顆GH200 Grace Hopper超級芯片的新型DGX GH200人工智能超級計算機,堪稱“算力殺器”。谷歌云、Meta和微軟將是第一批獲得DGX GH200 訪問權限的公司,并將對其功能進行研究。
5月29日周一,英偉達CEO黃仁勛在COMPUTEX大會上拋出多個重磅信息,包括新的機器人設計、游戲功能、廣告服務和網絡技術。其中最為引人矚目的是,搭載256顆GH200 Grace Hopper超級芯片的新型DGX GH200人工智能超級計算機,堪稱“算力殺器”。
谷歌云、Meta和微軟是首批預計將獲得DGX GH200訪問權的客戶,以探索其在生成型AI工作負載方面的能力。值得注意的是,算力的突破,將使得AI應用再次獲得巨大提升,AI賽道有望向下一個節點邁進。在周一的演講中,黃仁勛認為科技行業的傳統架構的改進速度已不足以跟上復雜的計算任務。 為了充分發揮AI 的潛力,客戶越來越多地轉向加速計算和英偉達制造的GPU。
黃仁勛說:
我們已到達生成式AI引爆點。從此,全世界的每個角落,都會有算力需求。
有評論認為,一連串的發布凸顯了英偉達正在從一家GPU制造商轉變為一家處于AI熱潮中心的公司。
上周,由于對處理AI任務的數據中心芯片的強烈需求,英偉達大幅提高了對本季度的業績指引,比分析師的估計高出近40億美元。業績指引的提高使該股創下歷史新高,并使英偉達的估值接近1萬億美元,這還是芯片業中首次有公司市值達到這一高度。
在周一的會議上,黃仁勛發布的主要內容包括:
- 英偉達面向游戲玩家的GForce RTX 4080 Ti GPU現已全面投產,并已經開始量產。
- 黃仁勛宣布推出適用于游戲的英偉達Avatar Cloud Engine(ACE),這是一種可定制的AI模型代工服務,為游戲開發人員提供預訓練模型。它將通過AI支持的語言交互賦予非玩家角色更多個性。
- 英偉達Cuda計算模型現在服務于400萬開發者和超過3000個應用程序。Cuda的下載量達到了4000萬次,其中僅去年一年就達到了2500萬次。
- GPU服務器HGX H100的全面量產已經開始,他補充說,這是世界上第一臺裝有變壓器引擎的計算機。
- 黃仁勛將英偉達2019年以69億美元收購超級計算機芯片制造商Mellanox稱為其有史以來做出的“最偉大的戰略決策之一”。
- 下一代 Hopper GPU的生產將于2024年8月開始,也就是第一代開始生產兩年后。
- 英偉達的GH200 Grace Hopper現已全面投產。超級芯片提升了4 PetaFIOPS TE、72個通過芯片到芯片鏈路連接的Arm CPU、96GB HBM3和576 GPU內存。黃仁勛將其描述為世界上第一個具有巨大內存的加速計算處理器:“這是一臺計算機,而不是芯片。” 它專為高彈性數據中心應用而設計。
- 如果Grace Hopper的內存不夠用,英偉達有解決方案——DGX GH200。 它是通過首先將8個Grace Hoppers與3個NVLINK交換機以900GB傳輸速度的Pod連接在一起,再將32個這樣的組件連接在一起,再加上一層開關,連接總共256個Grace Hopper芯片。 由此產生的 ExaFLOPS Transformer Engine具有144 TB的GPU內存,可用作巨型GPU。黃仁勛說Grace Hopper速度非常快,可以在軟件中運行5G堆棧。 谷歌云、Meta和微軟將是第一批獲得DGX GH200 訪問權限的公司,并將對其功能進行研究。
- 英偉達和軟銀已建立合作伙伴關系,將Grace Hopper超級芯片引入軟銀在日本的新分布式數據中心。這些將能夠在多租戶通用服務器平臺中托管生成式人工智能和無線應用程序,從而降低成本和能源。
- 軟銀和英偉達的合作伙伴關系將基于英偉達MGX參考架構,該架構目前正在與一些公司合作使用。它為系統制造商提供了一個模塊化的參考架構,幫助他們構建100多個用于AI、加速計算和全方位用途的服務器變體。合作的公司包括ASRock Rack、Asus、Gigabyte、Pegatron、QCT和Supermicro。
- 黃仁勛發布了Spectrum-X加速網絡平臺,以提高基于以太網的云的速度。它包括Spectrum 4交換機,它有128個端口,每秒400GB和每秒51.2TB的傳輸速度。黃仁勛說,該交換機旨在實現新型以太網,并設計為端到端以進行自適應路由、隔離性能和進行結構內計算。它還包括Bluefield 3 Smart Nic,它連接到Spectrum 4交換機以執行擁塞控制。
- 世界上最大的廣告公司WPP已與英偉達Nvidia 合作開發基于 Nvidia Omniverse 的內容引擎。 它將能夠制作用于廣告的照片和視頻內容。
- 機器人平臺英偉達Isaac ARM現在可供任何想要構建機器人的人使用,并且是全棧的,從芯片到傳感器。Isaac ARM從名為 Nova Orin 的芯片開始,是第一個機器人全參考堆棧,Huang 說。
在發布會上,黃仁勛還展示了生成式AI以文字形式輸入然后以其他媒體輸出內容的能力。他要求播放與清晨心情相配的音樂,而在另一篇文章中,他列出了一些歌詞,然后使用AI將這個想法轉化為一首活潑的流行歌曲:
現在每個人都是創作者。
值得注意的是,本次大會上,黃仁勛向傳統CPU服務器集群發起“挑戰”。他直言,認為在人工智能和加速計算這一未來方向上,GPU服務器有著更為強大的優勢。
黃仁勛解釋稱,傳統上電腦或服務器最重要的 CPU,這個市場主要參與者包括英特爾和AMD。但隨著需要大量計算能力的AI應用出現,GPU將成為主角,英偉達主導了當前全球AI GPU 市場。
黃仁勛在演講上展示的范例,訓練一個LLM大語言模型,將需要960個CPU組成的服務器集群,這將耗費大約1000萬美元,并消耗11千兆瓦時的電力。相比之下,同樣以1000萬美元的成本去組建GPU服務器集群,將以僅3.2千兆瓦時的電力消耗,訓練44個LLM大模型。
如果同樣消耗11千兆瓦時的電量,那么GPU服務器集群能夠實現150倍的加速,訓練150個LLM大模型,且占地面積更小。而當用戶僅僅想訓練一個LLM大模型時,則只需要一個40萬美元左右,消耗0.13千兆瓦時電力的GPU服務器即可。
換言之,相比CPU服務器,GPU服務器能夠以4%的成本和1.2%的電力消耗來訓練一個LLM,這將帶來巨大的成本節省。
根據Trend Force的數據,2022年搭載GP GPU的AI服務器年出貨量占全部服務器的比重接近1%,2023年在ChatGPT等人工智能應用加持下,AI服務器出貨量有望同比增長8%,2022~2026年出貨量CAGR有望達10.8%,以AI服務器用GPU,主要以公司H100、A100、A800(主要出貨中國)以及AMD MI250、MI250X系列為主,而英偉達與AMD的占比約8:2。
基于IDC預測2026年全球服務器出貨量1877萬臺、AI服務器的占比逐年提升1%,同時AI服務器中GPU的搭載數量逐年提升0.5個百分點、隨著GPU產品迭代,GPU單價逐年提升2000美元,國金證券基于上述基礎預測,2026年全球數據中心GPU市場規模有望達224億美元。
風險提示及免責條款
市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。
責任編輯:周唯
VIP課程推薦
APP專享直播
熱門推薦
收起24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)