斯坦福“草泥馬”火了:100美元就能比肩GPT-3.5!手機都能運行

斯坦福“草泥馬”火了:100美元就能比肩GPT-3.5!手機都能運行
2023年03月14日 14:01 快科技

一夜之間,大模型界又炸出個big news!

斯坦福發布Alpaca(羊駝,網友口中的“草泥馬”):

只花100美元,人人都可微調Meta家70億參數的LLaMA大模型,效果竟可比肩1750億參數的GPT-3.5(text-davinci-003)。

而且還是單卡就能運行的那種,甚至樹莓派、手機都能hold住!

還有一個更絕的“騷操作”。

研究所涉及到的數據集,是斯坦福團隊花了不到500美元用OpenAI的API來生成的。

所以整個過程下來,就等同于GPT-3.5自己教出了個旗鼓相當的對手AI。

(薅羊毛高手……)

然后團隊還說,用大多數云計算平臺去微調訓練好的模型,成本也不到100美元:

復制一個GPT-3.5效果的AI,很便宜,很容易,還很小。

而且團隊還把數據集(秒省500刀)、代碼統統都給開源了,這下子人人都能去微調個效果炸裂的對話AI:

項目在GitHub發布才半天時間,便已經狂攬1800+星,火爆程度可見一斑。

Django聯合開發者甚至對斯坦福的新研究用“驚天大事”來形容:

不僅如此,斯坦福團隊還搞了個demo,在線可玩的那種。

話不多說,我們現在就來看看這個“草泥馬”的效果。

比肩davinci-003的草泥馬Aplaca

在斯坦福官方的演示中,他們先小試牛刀地提了一個問題:

什么是羊駝?它和美洲駝的區別是什么?

草泥馬Aplaca給出的答案較為干練:

羊駝是一種小型駱駝科動物,原產于秘魯、玻利維亞、厄瓜多爾和智利;它比美洲駝小,羊毛更細,也沒有駝峰。

而后又簡單的介紹了二者群居生活的不同。

同樣的問題若是交給ChatGPT(GPT3.5-turbo),則答案就不會像草泥馬Aplaca那般簡潔:

對此,團隊給出的解釋是:

Alpaca的答案通常比ChatGPT短,反映出text-davinci-003的輸出較短。

而后團隊演示了讓草泥馬Alpaca寫郵件:

寫一封e-mail祝賀被斯坦福大學錄取的新生,并提到你很高興能親自見到他們。

草泥馬Alpaca對于這個任務也是信手拈來,直接給出了一個像模像樣的郵件模板:

難度再次進階,團隊這次提出了讓草泥馬Alpaca寫論文摘要的需求:

寫一篇經過深思熟慮的機器學習論文摘要,證明42是訓練神經網絡的最優seed。

草泥馬Alpaca給出的答案從內容上來看,非常符合大多數論文的摘要形式:試圖回答什么問題、用了什么方法、結果如何,以及未來展望。

當然,也有迫不及待的網友親自下場試驗,發現草泥馬Alpaca寫代碼也是不在話下。

不過即便草泥馬Alpaca能夠hold住大部分問題,但這并不意味著它沒有缺陷。

例如團隊便演示了一個例子,在回答“坦桑尼亞的首都是哪里”的問題時,草泥馬Alpaca給出的答案是“達累斯薩拉姆”。

但實際上早在1975年便被“多多馬”取代了。

除此之外,若是親自體驗過草泥馬Alpaca就會發現,它……巨慢:

對此,有網友認為可能是使用的人太多的原因。

筆記本、手機、樹莓派都能跑

Meta開源的LLaMA大模型,剛發布幾周就被大家安排明白了,單卡就能運行。

所以理論上,基于LLaMA微調的Alpaca同樣可以輕松在本地部署。

沒有顯卡也沒關系,蘋果筆記本甚至樹莓派、手機都可以玩。

在蘋果筆記本部署LLaMA的方法來自GitHub項目llama.cpp,使用純C/C++做推理,還專門對ARM芯片做了優化。

作者實測,M1芯片的MacBook Pro上即可運行,另外也支持Windows和Linux系統。

還是這個C++移植版本,有人成功在4GB內存的樹莓派4上成功運行了LLaMA的 70億參數版本。

雖然速度非常慢,大約10秒生成一個token(也就是一分鐘蹦出4.5個單詞)。

更離譜的是僅僅2天之后,有人把LLaMA模型量化壓縮(權重轉換成更低精度的數據格式)后成功在Pixel 6安卓手機上運行(26秒一個token)。

Pixel 6使用谷歌自研處理器Google Tensor,跑分成績在驍龍865+到888之間,也就是說新一點的手機理論上都能勝任。

微調數據集也開源

斯坦福團隊微調LLaMA的方法,來自華盛頓大學Yizhong Wang等去年底提出的Self-Instruct。

以175個問題作為種子任務,讓AI自己從中組合出新的問題以及生成配套答案實例,人工過濾掉低質量的,再把新任務添加到任務池里。

所有這些任務,之后可以采用InstructGPT的方法讓AI學會如何遵循人類指令。

套娃幾圈下來,相當于讓AI自己指導自己。

斯坦福版Alpaca,就是花了不到500美元使用OpenAI API生成了5.2萬個這樣的示例搞出來的。

這些數據同樣開源了出來,并且比原論文的數據多樣性更高。

同時還給出了生成這些數據的代碼,也就是說如果有人還嫌不夠,可以再去自行擴充微調數據,繼續提高模型的表現。

微調代碼也會在HuggingFace官方支持LLaMA后放出。

不過Alpaca最終的模型權重需要Meta許可才能發布,并且繼承了LLaMA的非商用開源協議,禁止任何商業用途。

并且由于微調數據使用了OpenAI的API,根據使用條款也禁止用來開發與OpenAI形成競爭的模型。

One More Thing

還記得AI繪畫的發展歷程嗎?

2022年上半年還只是話題熱度高,8月份Stable Diffusion的開源讓成本下降到可用,并由此產生爆炸式的工具創新,讓AI繪畫真正進入各類工作流程。

語言模型的成本,如今也下降到了個人電子設備可用的程度。

最后還是由Django框架創始人Simon Willison喊出:

大語言模型的Stable Diffusion時刻到了。

責任編輯:落木責任編輯:落木
AI美元樹莓派
新浪科技公眾號
新浪科技公眾號

“掌”握科技鮮聞 (微信搜索techsina或掃描左側二維碼關注)

創事記

科學探索

科學大家

蘋果匯

眾測

專題

官方微博

新浪科技 新浪數碼 新浪手機 科學探索 蘋果匯 新浪眾測

公眾號

新浪科技

新浪科技為你帶來最新鮮的科技資訊

蘋果匯

蘋果匯為你帶來最新鮮的蘋果產品新聞

新浪眾測

新酷產品第一時間免費試玩

新浪探索

提供最新的科學家新聞,精彩的震撼圖片