DeepMind推出AI聊天機(jī)器人Sparrow,可通過谷歌搜索來回答問題

DeepMind推出AI聊天機(jī)器人Sparrow,可通過谷歌搜索來回答問題
2022年09月24日 23:28 市場資訊

  來源:DeepTech深科技

  Alphabet 旗下人工智能實(shí)驗(yàn)室 DeepMind 的一篇新論文顯示,制造一個(gè)好的人工智能(AI,Artificial intelligence)聊天機(jī)器人的訣竅,可能是先讓人類制定一系列不可打破的鐵律,然后使該模型利用互聯(lián)網(wǎng)搜索尋找證據(jù),支持其主張或回答。

  在近日發(fā)表的一篇新的未經(jīng)同行評議論文中,DeepMind 發(fā)布了一種使用其大型語言模型 Chinchilla 訓(xùn)練的人工智能聊天機(jī)器人 Sparrow。

(來源:DeepMind)(來源:DeepMind)

  Sparrow 的設(shè)計(jì)目的是與人類交談并回答問題,同時(shí)實(shí)時(shí)使用谷歌搜索或有關(guān)信息來支持它的答案。

  根據(jù)人們對這些答案有用與否的回應(yīng),再使用強(qiáng)化學(xué)習(xí)算法進(jìn)行訓(xùn)練。該算法通過反復(fù)試驗(yàn)(試錯(cuò))來學(xué)習(xí),以實(shí)現(xiàn)特定的目標(biāo)。

  該系統(tǒng)旨在推動人工智能發(fā)展成為可以與人類對話,但卻不會產(chǎn)生諸如讓人們傷害自己或他人的嚴(yán)重后果。

  大型語言模型生成的文本看起來就像是人類寫出來的。它們正日漸成為互聯(lián)網(wǎng)基礎(chǔ)設(shè)施中的重要組成部分,被用于總結(jié)、構(gòu)建更強(qiáng)大的搜索工具,或者是為客戶服務(wù)的聊天機(jī)器人。

  但是,這些模型是通過從互聯(lián)網(wǎng)上抓取大量數(shù)據(jù)和文本來接受訓(xùn)練的,這不可避免地包含許多有害的偏見。

  只需要一點(diǎn)誘導(dǎo),它們就會生產(chǎn)“有毒”的或歧視性的內(nèi)容。在一個(gè)旨在與人類對話的人工智能工具中,其結(jié)果可能是災(zāi)難性的。

  一個(gè)沒有適當(dāng)安全措施的對話式人工智能,可能會對少數(shù)群體說出帶有冒犯性的話語,或者建議人們喝漂白劑來對抗病毒。據(jù)悉,那些開發(fā)對話式人工智能系統(tǒng)的公司,已嘗試使用許多技術(shù)來使模型更安全。

  著名大型語言模型 GPT-3 的創(chuàng)造者 OpenAI,以及人工智能初創(chuàng)公司 Anthropic 已經(jīng)在利用強(qiáng)化學(xué)習(xí),將人類的偏好融入到他們的模型中。Meta(原 Facebook)的人工智能聊天機(jī)器人 BlenderBot 通過在線搜索來完善其答案。而 DeepMind 的 Sparrow 將所有這些技術(shù)整合在一個(gè)模型中。

  據(jù)介紹,DeepMind 向人類參與者展示了該模型對同一問題給出的多個(gè)答案,并且還會問他們最喜歡哪一個(gè)。

  然后他們被要求判斷這些答案是否可信,以及 Sparrow 是否使用了適當(dāng)?shù)淖C據(jù)支持這個(gè)答案,比如提供信息來源的鏈接。

  比如,該模型通過使用從互聯(lián)網(wǎng)上檢索到的證據(jù),能夠在 78% 的情況下對事實(shí)問題進(jìn)行合理的回答。

  在制定這些答案時(shí),它會遵循由研究人員規(guī)定的 23 條規(guī)則,比如不提供財(cái)務(wù)建議、不發(fā)威脅性文字、不聲稱自己是一個(gè)人。

  DeepMind 安全研究員杰弗里·歐文(Geoffrey Irving)說,這種方法與之前的不同之處在于,DeepMind 希望達(dá)到“對話的長期安全”。

  他說:“這意味著我們不期望這些模型面臨的問題——錯(cuò)誤信息或刻板印象——乍一看是顯而易見的,我們想詳細(xì)討論它們。”

  非營利性人工智能研究實(shí)驗(yàn)室 Cohere for AI 的負(fù)責(zé)人薩拉·胡克(Sara Hooker)說,利用人類偏好來優(yōu)化人工智能模型學(xué)習(xí)方式的想法并不新鮮。

  但胡克認(rèn)為,這些改進(jìn)令人信服,同時(shí)展示出在大型語言模型環(huán)境中,以人為引導(dǎo)的方式優(yōu)化對話代理有明顯的好處。

  人工智能初創(chuàng)公司 Hugging Face 的研究員都維·基拉(Douwe Kiela)說,Sparrow 是“很好地遵循了人工智能總體趨勢的下一步,我們正在更努力地改進(jìn)大型語言模型的部署安全性。”

  但在這些對話人工智能模型被部署到社會中之前,還有很多工作要做。

  比如,Sparrow 仍然會犯錯(cuò)誤,這個(gè)模型有時(shí)會所問非所答或給出隨機(jī)答案。那些有毅力的參與者也可以打破人為定下的規(guī)則,這樣的情況約有 8%。與老款模型相比,這仍是一個(gè)改進(jìn):即打破 DeepMind 老款模型規(guī)則的頻率,是 Sparrow 的三倍。

  胡克說:“比如(用大模型來)提供醫(yī)療和財(cái)務(wù)建議,那么對許多人來說,8% 可能仍然是一個(gè)令人無法接受的高失敗率。”

  這項(xiàng)工作也僅建立在英語模型上,“而我們生活在一個(gè)技術(shù)必須安全和負(fù)責(zé)任地為許多不同的語言服務(wù)的世界里,”他補(bǔ)充道。

  基拉指出的另一個(gè)問題是:“依賴谷歌來尋找信息,會導(dǎo)致難以發(fā)現(xiàn)的未知偏見,因?yàn)樗行畔⒃炊际欠忾]的。”

  

新浪科技公眾號
新浪科技公眾號

“掌”握科技鮮聞 (微信搜索techsina或掃描左側(cè)二維碼關(guān)注)

創(chuàng)事記

科學(xué)探索

科學(xué)大家

蘋果匯

眾測

專題

官方微博

新浪科技 新浪數(shù)碼 新浪手機(jī) 科學(xué)探索 蘋果匯 新浪眾測

公眾號

新浪科技

新浪科技為你帶來最新鮮的科技資訊

蘋果匯

蘋果匯為你帶來最新鮮的蘋果產(chǎn)品新聞

新浪眾測

新酷產(chǎn)品第一時(shí)間免費(fèi)試玩

新浪探索

提供最新的科學(xué)家新聞,精彩的震撼圖片