快科技11月5日消息,騰訊今日宣布推出業界參數規模最大、效果最好的開源MoE大語言模型Hunyuan-Large。
Huanyuan-large模型的總參數量為389B、激活參數為52B、訓練token數量為7T、最大上下文長度為256K、詞表大小為12.8w。
在技術創新方面,Hunyuan-large通過高質量的合成數據來增強模型訓練,彌補了自然數據的不足。
其中,該模型預訓練支持處理高達256K的文本序列,大幅提升了長文本上下文的處理能力,能夠更高效地完成長文本任務。
據了解,Hunyuan-large在CMMLU、MMLU、CEva1、MATH等多學科綜合評測集上表現優異,在中英文自然語言處理、代碼生成、數學運算等9大能力維度中全面領先,超越了Llama3.1和Mixtral等一流開源模型。
此外,騰訊還宣布將推出自研的長文評測集“企鵝卷軸(PenguinScrolls)”,以填補行業在真實長文評測集上的空白。
企鵝卷軸基于公開的金融、法律、學術論文等長文本構建,文本長度從1K到128K不等,覆蓋深度閱讀理解和長文推理任務。
【本文結束】如需轉載請務必注明出處:快科技
責任編輯:文祥
新浪科技公眾號
“掌”握科技鮮聞 (微信搜索techsina或掃描左側二維碼關注)