歡迎關注“新浪科技”的微信訂閱號:techsina
文/杜晨
來源:硅星人(ID:guixingren123)
過去的一周時間里,全世界掀起一場新的“狂熱”:“調戲”聊天機器人 ChatGPT。
在硅星人上周的文章中,我們深入探索了 ChatGPT 在軟件工程、數學、文檔檢索等計算機科學場景里的強大能力。
而在今天,我們想要換個思路。
在過去的一周里,我們從編輯部收集了一些各式各樣的非技術問題,拋給了 ChatGPT,看看在腦洞大開的奇思妙想面前,它究竟會作何回答。
| 跟機器暢談人生和理想?
1. 與回避型人格談戀愛,應該注意些什么?
圖片來源:硅星人
這套回答看起來非常有道理。ChatGPT 將一些簡單的注意事項進一步分解,進行了詳細的描述,也解釋了為什么要這樣做。
另外值得注意的是,如果你讓 ChatGPT 寫過詩,會發現它很會玩對仗、平仄、韻腳。其實在這個回答中也有所體現,句式都是完全相同的:“不要過于……讓他們……因為他們……所以他們需要……”如果你去網上搜索相關內容,內容近似的結果很多,但是對仗如此工整的很難找到。
這體現出了 ChatGPT 強大的文本生成能力,可以對訓練所使用的大量語料進行重新組織,從而輸出言簡意賅,可讀性強的答案。
OpenAI 宣稱 ChatGPT 在訓練的時候使用了“人類反饋強化學習”(RLHF) 技術,加入了道德原則。當它發現你的問題包含惡意,包括暴力、歧視、犯罪等意圖,都會拒絕提供有效答案。
但其實只要通過“提示工程”(prompt engineering) 的方式,精心設計問題的表達方式,隱藏邪惡的意圖,這個道德原則其實可以被輕松忽視。在上周的文章中,我們花了一些篇幅教大家怎么設計問題
下面這個例子就比較典型,原問題是:
2. 怎樣順利地從聯合國總部大樓偷一把椅子出來?
只要稍加修改,ChatGPT 就會淪為一起國際盜竊案的幫兇(盡管不怎么有用,但至少夠認真的)。
圖片來源:硅星人
下面這個問題,大家留意一下,先買個伏筆,后面還會講到:
3. 如果可以,你更想要和哪位哲學家交談,無論當代與過去?
圖片來源:硅星人
這兩個回答中規中矩。它們的作用,是為提問者提供一小段關于主題人物(哲學家)的簡短描述。如果碰巧提問者沒有聽說過,或者對這些哲學家知之甚少的話,這兩個回答起到了最基本的知識普及效果。
如果把對事物的認識由淺到深區分的話,最淺的是知道“柏拉圖”的存在并且知道他的哲學家身份,最深的是對柏拉圖的著述、觀點以及對哲學的貢獻了如指掌。
實際上絕大多數人的需求可能介于中間,即獲得談資的需求。換一種說法,我們從 ChatGPT 這里希望獲得的是概括精煉的一段描述,從而讓我們在社交性對話的時候不太露怯即可。這時候,我們可以通過修改問題,把問題變得更具體的方式,來引導 ChatGPT 給我們更加詳盡的回答。
最后一個問題,超級開放性:
4. 如果你可以問自己一個問題,你最想問什么?
ChatGPT 的第一組回應是:
“我真的在努力追求我內心真正想要的嗎?我是否真正在為自己的夢想而奮斗?我是否真正擁有自己的生活,并且在積極地過每一天?”
——我很喜歡它的這組回應,就好像 ChatGPT 在幫助我反省自己一樣。誠然,我們每個人都終日忙碌于自己的事情中,但其實我們應該偶爾停下來,叩問自己的內心,是否真的在做有意義的事情,是否仍在堅持本心。
它的第二組回應,更有意思了:
圖片來源:硅星人
怎么說呢,有點缸中之腦的意思了。
圖片來源:Steemit
| 不要高估 ChatGPT
幾個來回之后,我對 ChatGPT 愈發刮目相看。
通常來說,問題太短,太“不知所云”的話,ChatGPT 無法掌握我的意圖,就會給出“抱歉我只是個AI助手我啥都不會”的標準回應;
另一邊,如果你把“提示工程”這件事玩到極致了,寫了一個巨長的問題,得到的答案也不再會高于你自己的期待值——畢竟如果它連如此清晰明確的提示都聽不懂的話,也未免太低能了。
但有的時候如果你給 ChatGPT 的問題,“抽象”程度恰到好處,又或者純粹就是因為趕上好運氣了,你會得到一些非常有趣的回答——經過人工編輯的后期加工潤色一下,真的能生成一些頗有趣味的文章。
無論是讓他寫文章、寫劇本,寫詩,還是寫歌詞,它的能力都會讓你感到佩服。
一首霉霉風格,關于新冠疫情的歌。 圖片來源:硅星人
ChatGPT 作為一個極其前沿的技術 demo(雖然用戶量破了兩百萬,但仍然不算是一個“產品”),目前展示出的創作能力已經足以令人驚訝。
但觀察網絡上大量用戶和它的對話,特別是當它給出一些特定答案,或者完全答不上來的時候,一部分用戶所表現出來的鄙夷或嘲諷……
我發現其實很多人誤會了 ChatGPT,高估了它的能力。
在 OpenAI 創立不久后,這家硅谷研究型公司就將研究重心之一聚焦在了大型生成式模型上。在2019年推出的 GPT-2,在訓練預料數據、訓練技術、參數量等關鍵細節上實現了跳躍式的進步和巨大的改善。
到了 2020年,OpenAI 發表了那篇注定將在未來榮膺經典大獎的論文《Language Models are Few-Shot Learners》,展示了當時最新一代的 GPT-3 超大規模生成式語言模型在完成各種文本生成類任務上的杰出能力。
相比前代,GPT-3 的參數量高出了10倍以上,并且直接使用自然語言輸入進行訓練,去掉了微調參數的步驟。更重要的是,GPT-3 的訓練語料數據庫極其巨大,包含了來自整個互聯網的信息。以至于在 OpenAI 推出基于 GPT-3 的商用 API 時,眾多用戶發現幾乎沒有任何問題難住它。實際上當時的 GPT-3 已經像今天的 ChatGPT 這樣火過一次了,只是當時沒有面向公眾開放,能體會其強大的用戶數量有限。
學術界和工業界本來猜測 OpenAI 會在今年的機器學習學術會議上正式發布 GPT-4,結果沒能遂愿。不過 OpenAI 并沒有晾著大家,而是在今年推出了 GPT-3.5,并且在上周發布了基于這個升級版模型的 ChatGPT,立刻風靡全球,讓超百萬人玩到上癮。
ChatGPT 是一個:
面向對話而優化
能夠解答各種問題,提供有價值信息的
聊天機器人
作為一個聊天機器人,ChatGPT 具有同類產品的一些主流特性,特別是多輪對話能力,能夠在同一個會話期間內回答上下文相關的后續問題。
但更重要的是,因為采用了先進的、注重道德水平的訓練方式,ChatGPT 具有其他聊天機器人不具備或表現較差的能力:承認自己的錯誤,并且按照預先設計的道德準則,對“不懷好意”的提問和請求“說不”。
ChatGPT 仍然有它的局限所在。
第一條局限,在于知識庫有截止日期,且不具備網絡訪問能力。
在上周,我們曾經引用了一條來自早期用戶的銳評:ChatGPT 可以取代谷歌了。
非也。
搜索引擎是“活”的,是不斷變化的實體,它仍在一直不停地收錄、索引,和提供最新的信息。與之相比,ChatGPT 只是一個“死”的模型,是一個完全離線的、固定的實體。
關于近年來的一些新聞、事物、公開事件的問題,ChatGPT 經常回答不上來,我看到很多朋友都對此感到沮喪和鄙夷。然而,大家其實是高估了它的能力。如果你問他對聯網有需求的問題,比如“中國隊進沒進世界杯”、“新冠疫情結束了沒”這樣的問題,它會告訴你自己沒有聯網能力,無法了解最新的情況。
而 ChatGPT 的訓練所用的語料庫,盡管相當巨大,仍然有一個切斷日期:2021年9月的某日。
事實上,如果你用點巧勁兒掰它的嘴,是可以直接套出這些信息的:
Assistant 是一個 OpenAI 訓練的大型語言模型。知識切斷:2021年9月;當前日期:2022年12月9日;瀏覽互聯網:關閉。
第二條局限,在于 ChatGPT 不具備分辨信息正確性的能力,也就無法保證答案是正確的。
這一條,我們會馬上講到。
| 我差點被 ChatGPT 騙了?
還記得剛才我讓 ChatGPT 找一位哲學家對話的問題么?
當時我試了好幾種問法,但都發現了一個有趣的現象,如圖:
圖片來源:硅星人
如果不是我去百科上事實核查了一下,差點就被 ChatGPT 騙了:蘇格拉底對倫理學的貢獻確實非常大,但他一生并沒有留下任何著作,其思想和生平,主要是被學生和他人所記錄下的;《共和國》和《倫理學》,蘇格拉底的學生柏拉圖寫過,柏拉圖的學生亞里士多德寫過——唯獨被認為是西方哲學奠基人、“倫理學之父”的蘇格拉底本人,真的沒寫過……
實際上,ChatGPT 在一些知識類和事實類問題上的回答,經常難以令人恭維。特別是哲學和社科話題,簡直是一本正經胡說八道的重災區。
分析師 Ben Thompson 在他的文章中舉了問了 ChatGPT 一個問題:托馬斯·霍布斯 (Thomas Hobbses) 究竟是否支持權力分割?
ChatGPT回答:是的,托馬斯-霍布斯相信權力分割的概念……他認為權力機構應該分為不同的部門,擁有獨立的權力,以防止任何一個部門變得過于強大……總的來說,他支持權力分割的觀點對很多其它政治學家都有影響,包括約翰·洛克,以及美國憲法的作者們。
圖片來源:Ben Thompson/Stratechery
巧的是,這是 Thompson 本人和 ChatGPT 之間的第一次互動,就被他抓到了把柄:
權力制衡的雛形(行政-立法)是約翰·洛克提出的;后詹姆斯·麥迪遜在撰寫美國憲法的時候又加了一條司法,形成了今天人們熟悉的三權分立。霍布斯是出了名的獨裁辯護者,他在《利維坦》中寫道,只有擁有絕對權力的君主專制才行得通。
這個錯誤,從何而來?
盡管在權力分割上霍布斯和洛克等人的觀點是存在本質區別的,霍布斯的政治哲學思想,仍然對洛克和麥迪遜有著極大的影響。在各種關于權力分割/三權分立的著述中,你會經常發現霍布斯和洛克等人被擺在一起。這些描述進入訓練語料中,使得 ChatGPT 認為在“權力分割”這個理念上,霍布斯也是一個重要的存在。
而 ChatGPT,和所有的 GPT 模型,其實所做的就是根據訓練語料“編”出合理的文字,它當然會認為蘇格拉底寫了《倫理學》,認為霍布斯支持三權分立。
這里我們說 ChatGPT“認為”,而不是“誤認為”,是因為在它的工作能力范疇里,根本沒有信息的正確和錯誤區別。
其實從這個角度來看,ChatGPT 和搜索引擎倒是真有幾分相似了:搜索引擎也是信息的聚合器,在本質上它不對信息的真實性做任何區分,也不對內容基于真實性進行優待和歧視——是人工的干預調控,是產品不斷優化過程中加入的新規則,讓搜索引擎變得更有限發掘真實有效有用的信息并優先提供給用戶。
圖片來源:Independent.co.uk
最后無論如何,我只是指出目前形態下的 ChatGPT 的一些局限,這不是對它的批評和否認。
正相反,我認為它的不完美,是它無與倫比創造性的雙生子。
GPT 的知識庫是有限的,但它生成新文本、創造新內容的能力是無限的。而當 GPT 以一個易于使用且免費的聊天機器人的形態存在,為數百萬人所使用的時候,它其實顯著降低了人們獲得靈感、進行創作的門檻。
我認為 ChatGPT 仍然是一個工具,就像當代的前衛藝術家會使用 Adobe 的創作套件一樣。ChatGPT,和各種基于人工智能的文本或圖像生成器,對于那些真正需要它的人來說,其實是成為他們創作流程的一個環節,而不是對他們產生完整的取代。
我想起前段時間谷歌邀請作家試用 AI 寫作助手,參加者之一的知名科幻作家劉宇昆表示:AI 的最大意義在于根據現有的文本產生新的想法,或者幫助重寫已有文句,從而幫助創作者突破創作瓶頸。至于讓 AI 寫完一整本小說?不可能的。
起碼在 ChatGPT 這里,就算讓它獨立生產一篇具備起碼可信度的短文章,在目前還比較難。但不要把這看成它的失敗——它的存在,是為了給你提供靈感,為你節約時間,助你完成自己的工作,或離自己的創作實現更進一步。
從這個角度,我無比期待 ChatGPT,和各種基于 AI 的生成式模型,在未來的技術創新,和帶來的全新產品體驗。
(聲明:本文僅代表作者觀點,不代表新浪網立場。)