炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!
3月25日,A股三大指數集體低開,Kimi概念盤初大幅跳水,中廣天擇閃崩觸及跌停,華策影視跌超10%,海天瑞聲、世紀天鴻、引力傳媒等多股大跌。
與之相對,算力板塊組織反撲,潤建股份二連板,數據港觸及漲停,奧飛數據、依米康、浪潮信息集體走強。二級市場Kimi概念熱度逐漸回落,投資邏輯回歸產業鏈本質。
Kimi是AI大模型初創企業月之暗面(Moonshot)推出的AI產品,后者披露Kimi 智能助手在長上下文窗口技術上取得突破,無損上下文長度提升了一個數量級到200萬字。該消息在二級市場引發多日追漲,也拉動相關公司布局長文本。
據了解,百度旗下文心一言即將于下月進行升級,開放長文本能力,文本范圍在200萬-500萬。
3月23日,360智腦宣布正式內測500萬字長文本處理功能,該功能即將入駐360AI瀏覽器。目前360AI瀏覽器已向用戶免費開放100萬字長文本閱讀功能,可一分鐘讀完《三體》,并就文本外的“超綱”問題進行問答和延展學習。
3月22日,阿里通義千問宣布升級,向所有人免費開放1000萬字的長文檔處理功能,金融、法律、科研、醫療、教育等領域的專業人士可通過通義千問網站和APP快速讀研報、分析財報、讀科研論文、總結深度文章。
此前接受媒體采訪時,月之暗面創始人楊植麟表示,如果說參數量決定了大模型支持多復雜的“計算”,而能夠接收多少文本輸入(即長文本技術)決定了大模型有多大的“內存”,兩者共同決定模型的應用效果。無損長上下文將是通往AGI(通用人工智能)的關鍵基礎技術。從 Word2vec 到 RNN、LSTM,再到Transformer,歷史上所有的模型架構演進,本質上都是在提升有效的、無損的上下文長度。
OpenAI也在進行相關布局,經過三次升級,GPT-3.5上下文輸入長度從4000增長至1.6萬token(模型輸入和輸出的基本單位),GPT-4從8000增長至3.2萬token。另外,Anthropic也將上下文長度擴至10萬token。
那么,長文檔規模是否越大越好?對此,階躍星辰CEO、前微軟全球副總裁姜大昕對記者表示,考慮長文檔規模大小的時候還需要看智能水平,后者也是一項重要挑戰,目前包括GPT-4、Gemini、Claude等模型均未達到理想水平。另外,長文檔規模與智能水平也需要進行工程方面的ROI考量。
記者以“大模型上下文規模是否越大越好”問題向Kimi提問,后者解讀稱:長文本規模會帶來增強理解能力、改善連貫性、提高信息整合能力、減少信息丟失等優點,但也伴隨計算資源消耗、過擬合風險、稀疏性問題、更新與維護難度、能源消耗與環境影響等挑戰。
總結來看,Kimi認為上下文規模的選擇需要根據具體的應用場景和需求來決定。在某些需要處理大量信息和保持話題連貫性的任務中,較大的上下文規模可能是必要的。然而,在其他一些對計算資源有限制或對實時性要求較高的場景中,適中或較小的上下文規模可能更為合適。
另外,算力挑戰也是長文本需面對的首要問題。華西證券認為,國內長文本帶動大廠長文本能力迅速迭代,一方面將會縮小國內外大語言模型的代差,一方面將會進一步加大對底層算力的需求,算力需求爆發引發國內異構算力的構建,會帶來AI行業的又一次變革,AI模型、語料庫、算力租賃、算力運維、國產算力等將會繼續受益。
信通院數據顯示,2021年全球計算設備算力總規模達到615EFlops(每秒浮點運算次數),同比增長44%,其中基礎算力規模為369EFlops,智能算力規模為 232EFlops,超算算力規模為14EFlops,預計2030 年全球算力規模將達到56ZFlps,平均年均增長65%,中國目前計算設備總規模達到202EFlops,全球占比約為 33%,增速高于全球。
銀河證券研報顯示,人工智能產業快速增長,對算力需求提升持續爆發,產業鏈環節持續受益。其中算力產業鏈將持續受益,隨著目前大模型對訓練和推理需求提升,其中AI芯片及服務器、交換機及光模塊、IDC機房及上游產業鏈等需求均將獲得快速增長。
責任編輯:江鈺涵
VIP課程推薦
APP專享直播
熱門推薦
收起24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)