英偉達AI芯片勁敵來了!AMD推出MI300X,可運行多達800億參數模型

英偉達AI芯片勁敵來了!AMD推出MI300X,可運行多達800億參數模型
2023年06月14日 05:05 市場資訊

安裝新浪財經客戶端第一時間接收最全面的市場資訊→【下載地址

MI300X提供的HBM密度是英偉達AI芯片H100的2.4倍,HBM帶寬是H100的1.6倍,可以運行的模型比H100的更大。

  來源:華爾街見聞

  憑借發布的新品,AMD正式向英偉達的AI芯片王者地位發起挑戰。

  美東時間6月13日周二,AMD舉行了新品發布會,其中最重磅的新品當屬性用于訓練大模型的Instinct MI300。

  AMD CEO蘇姿豐介紹,生成式AI和大語言模型(LLM)需要電腦的算力和內存大幅提高。AMD的Instinct MI300A號稱全球首款針對AI和高性能計算(HPC)的加速處理器(APU)加速器。在13個小芯片中遍布1460億個晶體管。

  它采用CDNA 3 GPU架構和24個Zen 4 CPU內核,配置128GB HBM3。相比前代MI250,MI300的性能提高八倍,效率提高五倍。AMD在發布會稍早介紹,新的Zen 4c內核比標準的Zen 4內核密度更高,比標準Zen 4的內核小35%,同時保持100%的軟件兼容性。

  AMD推出一款GPU專用的MI300,即MI300X,該芯片是針對LLM的優化版,擁有192GB的HBM3、5.2TB/秒的帶寬和 896GB/秒的Infinity Fabric 帶寬。AMD將1530億個晶體管集成在共12個5納米的小芯片中。

  AMD稱,MI300X提供的HBM密度是英偉達AI芯片H100的2.4倍,其HBM帶寬是H100的1.6倍。這意味著,AMD的芯片可以運行比英偉達芯片更大的模型。

  Lisa Su介紹,MI300X可以支持400億個參數的Hugging Face AI 模型運行,并讓這個LLM寫了一首關于舊金山的詩。這是全球首次在單個GPU上運行這么大的模型。單個MI300X可以運行一個參數多達800億的模型。

  LLM需要的GPU更少,帶來的直接好處就是,可以節約成本。

  AMD還發布了AMD Instinct 平臺,它擁有八個MI300X,采用行業標準OCP設計,提供總計1.5TB 的HBM3 內存。

  蘇姿豐稱,適用于CPU和GPU的版本MI300A現在就已出樣,MI300X和八個GPU的Instinct 平臺將在今年第三季度出樣,第四季度正式推出。

海量資訊、精準解讀,盡在新浪財經APP

責任編輯:周唯

AMD 英偉達 內存

VIP課程推薦

加載中...

APP專享直播

1/10

熱門推薦

收起
新浪財經公眾號
新浪財經公眾號

24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)

7X24小時

  • 06-15 東方碳素 832175 12.6
  • 06-15 萊斯信息 688631 25.28
  • 06-15 美碩科技 301295 37.4
  • 06-14 錫南科技 301170 34
  • 06-14 華豐科技 688629 9.26
  • 產品入口: 新浪財經APP-股票-免費問股
    新浪首頁 語音播報 相關新聞 返回頂部