要說這兩天大模型圈的頂流話題,那絕對是非DeepSeek V3莫屬了。
不過在網友們紛紛測試之際,有個bug也成了熱議的焦點——
只是少了一個問號,DeepSeek V3竟然稱自己是ChatGPT。
甚至讓它講個笑話,生成的結果也是跟ChatGPT一樣:
加之DeepSeek V3這次爆火的一個亮點,就是訓練只花了557.6萬美元的成本。
于是乎,有人就開始懷疑了:它不會是在ChatGPT的輸出基礎上訓練的吧?
好巧不巧,Altman也發了一個狀態,似乎在暗諷著什么……
不過DeepSeek V3并非是第一個出現“報錯家門”的大模型。
例如Gemini就曾說過自己是百度的文心一言……
那么這到底是怎么一回事?為什么DeepSeek V3報錯家門?
首先需要強調的一點是,從目前網友們整體討論的觀點來看,說DeepSeek V3是在ChatGPT輸出上訓練的可能性不大。
之所以這么說,正如網友Riley Goodside所總結的那樣——因為ChatGPT的影子無處不在。
即便DeepSeek V3故意用ChatGPT的輸出做了訓練,但這并不重要。
所有在ChatGPT之后出現的大模型,幾乎都見過它。
例如ShareGPT,一個并不新鮮的ChatGPT對話數據集,許多人已經嘗試在它和其它ChatGPT數據源上進行調整。但即便如此,也沒能出現DeepSeek V3級別的大模型。
緊接著,Riley Goodside又拿出了DeepSeek V3報告中的一些證據:
而且要是用了ChatGPT數據的話,有些關于DeepSeek V3質量的問題是解釋不通的。
例如Pile測試(基礎模型壓縮Pile的效果),DeepSeek V3得分幾乎與Llama 3.1 405B相當,這跟它接沒接觸ChatGPT數據無關。
而且報告稱95%的GPU-hours用于預訓練基礎模型,即便是跟ChatGPT數據有關,那這部分也會在post-training階段發生(后5%)。
而比起用沒用ChatGPT數據,或許我們應當更加關注的是為什么大模型會頻繁出現“報錯家門”的問題。
TechCrunch針對這個問題給出了一句犀利的點評:
因為AI公司們獲取數據的地方——網絡,正在充斥著AI垃圾。
畢竟歐盟的一份報告曾預測,到2026年,90%的在線內容可能是AI生成的。
這種“AI污染”就會讓“訓練數據徹底過濾AI的輸出”變得困難。
AI Now Institute的首席科學家Heidy Khlaaf則表示:
盡管存在風險,開發者依然被從現有AI模型中“蒸餾”知識所帶來的成本節約所吸引。
意外地在ChatGPT或GPT-4輸出上進行訓練的模型,也不一定會展示出讓人想起OpenAI定制消息的輸出。
那么現在對于網友們熱議的問題,量子位進行了一波實測,DeepSeek V3目前還沒有解決這個bug。
依舊是少了個問號,回答結果會不一樣:
DeepSeek V3更多玩法
不過有一說一,絕大部分網友對于DeepSeek V3的能力是給予了大大的肯定。
從各路AI大佬們集體直呼“優雅”中就能印證這一點。
而就在這兩天,網友們陸續曬出了更多DeepSeek V3加持的實用玩法。
例如有網友拿DeepSeek V3和Claude Sonnet 3.5一決高下,在Scroll Hub中分別用它倆創建網站。
博主在測試之后,認為DeepSeek V3完全勝出!
還有網友分享了用DeepSeek V3在AI視頻編輯器中的體驗。
他表示以后不用再在FFMPEG命令上浪費時間了,DeepSeek V3不僅免費,還能改變你的工作流程。
AI編程神器Cursor也能跟DeepSeek V3結合,來看一個做貪吃蛇的案例。
嗯,DeepSeek V3是有點好用在身上的。
One More Thing
對于此前公布的53頁論文,也有網友關注到了一個非技術性的細節——
貢獻列表中,不僅展示了技術人員,還有數據注釋和商務等工作人員:
網友認為這種做法非常符合DeepSeek的調性:
[1]https://techcrunch.com/2024/12/27/why-deepseeks-new-ai-model-thinks-its-chatgpt/
[2]https://x.com/victormustar/status/1872647314231398524
[3]https://x.com/breckyunits/status/1872422078592516295
[4]https://x.com/op7418/status/1872689338242482203
[5]https://x.com/goodside/status/1872911457857208596
[6]https://x.com/kevinsxu/status/1873146905846530472
“掌”握科技鮮聞 (微信搜索techsina或掃描左側二維碼關注)