12月26日消息,國產(chǎn)大模型DeepSeek推出DeepSeek-V3,一個(gè)強(qiáng)大的混合專家(Mixture-of-Experts, MoE)語言模型。主要的技術(shù)迭代是671B的MoE,37B的激活參數(shù),在14.8萬億個(gè)高質(zhì)量token上進(jìn)行了預(yù)訓(xùn)練。
AI圈表示,“圣誕節(jié)真的來了”。
翻譯翻譯,首先,從訓(xùn)練時(shí)間看,正如DeepSeek在發(fā)布報(bào)告中指出的那樣,“盡管其表現(xiàn)出色,DeepSeek-V3的完整訓(xùn)練僅需2.788M H800 GPU小時(shí)。”
打個(gè)比方,如果對標(biāo)Llama 3 系列模型,其計(jì)算預(yù)算為 3930 萬 H100 GPU Hours——?大約可以訓(xùn)練 DeepSeek-V3 十五次。
從成本上看,如果我們假設(shè)?H800 GPU?的租金為每?GPU?小時(shí)?2?美元,DeepSeek-V3 的總訓(xùn)練成本僅為?557.6萬美元。
不僅如此,在最新發(fā)布的技術(shù)報(bào)告里,經(jīng)過與DeepSeek-V2.5、Qwen2.5-72B-Inst、Llama-3.1-405B-Inst、GPT-4o-0513和Claude-3.5-Sonnet-1022幾個(gè)模型的跑分,?DeepSeek-V3 在多個(gè)性能基準(zhǔn)測試中表現(xiàn)出色。
在MATH500、AIME2024和Codeforces三個(gè)維度更是遙遙領(lǐng)先,數(shù)學(xué)和編程能力極強(qiáng),一度超過?GPT-4o 和 Claude 3.5 Sonnet 這兩大領(lǐng)先的閉源模型。
雖然在某些語言理解和軟件工程任務(wù)中稍有遜色,但也是TOP2尖子選手。
DeepSeek自言,這得益于采用了Multi-head Latent Attention (MLA)和DeepSeek MoE架構(gòu),實(shí)現(xiàn)了高效的推理和經(jīng)濟(jì)高效的訓(xùn)練。
又引入了輔助損失自由負(fù)載平衡策略和多token預(yù)測訓(xùn)練目標(biāo),提升了模型性能。同時(shí),在14.8萬億個(gè)高質(zhì)量token上進(jìn)行了預(yù)訓(xùn)練時(shí),通過監(jiān)督微調(diào)和強(qiáng)化學(xué)習(xí)階段充分挖掘了其潛力。
綜合評估顯示,DeepSeek-V3優(yōu)于其他開源模型,性能接近領(lǐng)先的閉源模型。并且,訓(xùn)練過程非常穩(wěn)定,沒有遇到不可恢復(fù)的損失峰值或回滾。相比之下,在同一天,ChatGPT再次宕機(jī),修復(fù)時(shí)間尚未確定。
Meta AI 研究科學(xué)家田淵棟在X上對 DeepSeek-V3 “極有限的預(yù)算”和“強(qiáng)勁的表現(xiàn)”深感驚喜。
曾為 Glean 和 Google Search 的創(chuàng)始團(tuán)隊(duì)成員的 VC Deedy更是將DeepSeek-V3贊為“世界上最好的開源大模型”。
DeepSeek-V3的基礎(chǔ)模型以英語和中文為主的多語言語料庫上進(jìn)行預(yù)訓(xùn)練,因此主要在一系列以英語和中文為主的基準(zhǔn)測試上評估其性能,同時(shí)也在一個(gè)多語言基準(zhǔn)測試上進(jìn)行評估。而基于其內(nèi)部集成的HAI-LLM框架,具體跑分如下:
如上可以看到 V3 在英語、編程、數(shù)學(xué)、中文、多語言幾個(gè)維度的表現(xiàn)。
英語(English):DeepSeek-V3 Base 在大多數(shù)測試中表現(xiàn)最佳,例如在 BBH(EM)、MMLU(EM)、MMLU-Redux(EM)、DROP(F1)、ARC-Easy(EM)、ARC-Challenge(EM)、HellaSwag(EM)、PIQA(EM)、WinoGrande(EM)、TriviaQA(EM) 和 AGIEval(EM) 等測試中。在 Pile-test(BPB) 基準(zhǔn)測試中,DeepSeek-V3 Base 的得分為 0.548,也略高于其他模型。
代碼(Code):DeepSeek-V3 Base 在 HumanEval(Pass@1)、MBPP(Pass@1)、LiveCodeBench-Base(Pass@1)、CRUXEval-I(EM) 和 CRUXEval-O(EM) 等測試中表現(xiàn)突出。
數(shù)學(xué)(Math):DeepSeek-V3 Base 在 GSM8K(EM)、MATH(EM)、MGSM(EM) 和 CMath(EM) 等測試中表現(xiàn)優(yōu)異。
中文(Chinese):DeepSeek-V3 Base 在 CLUEWSC(EM)、C-Eval(EM)、CMMLU(EM)、CMRC(EM)、C3(EM) 和 CCPM(EM) 等測試中表現(xiàn)良好。
多語言(Multilingual):DeepSeek-V3 Base 在 MMMLU-non-English(EM) 測試中表現(xiàn)最佳。
由于DeepSeek“大方”開源,Open AI水靈靈地被網(wǎng)友cue進(jìn)行橫向?qū)Ρ龋幸环N被push的支配感。
不少玩家還在X上分享了自己的使用體驗(yàn),認(rèn)為DeepSeek-V3?很“聰明”,并對Deepseek團(tuán)隊(duì)表示極大的尊重。
DeepSeek 是一家創(chuàng)新型科技公司,長久以來專注于開發(fā)先進(jìn)的大語言模型(LLM)和相關(guān)技術(shù),由知名私募巨頭幻方量化孕育而生,作為大廠外唯一一家儲備萬張 A100 芯片的公司,幻方量化為DeepSeek的技術(shù)研發(fā)提供了強(qiáng)大的硬件支持。
早在通過開源大模型如 DeepSeek Coder 等,DeepSeek 就展示了在人工智能技術(shù)領(lǐng)域的實(shí)力。DeepSeek V2 模型的發(fā)布,更是提供了一種史無前例的性價(jià)比,推動(dòng)了中國大模型價(jià)格戰(zhàn)的發(fā)展,并因其創(chuàng)新的 MLA 架構(gòu)和 DeepSeekMoESparse 結(jié)構(gòu)而受到業(yè)界的廣泛關(guān)注。
DeepSeek 被硅谷譽(yù)為“來自東方的神秘力量”,其 V2 模型論文在當(dāng)時(shí)即被認(rèn)為可能是今年最好的一篇。
半年后,DeepSeek 帶著 V3 再次登場,用行動(dòng)說明,中國大模型創(chuàng)業(yè)者,也可以加入到這場全球技術(shù)創(chuàng)新的 AI 競賽中。
“掌”握科技鮮聞 (微信搜索techsina或掃描左側(cè)二維碼關(guān)注)