聊天神器ChatGPT還有這本事:“撰寫”論文摘要竟能騙過專家!

聊天神器ChatGPT還有這本事:“撰寫”論文摘要竟能騙過專家!
2023年01月16日 16:52 媒體滾動(dòng)

  來源:財(cái)聯(lián)社

  編輯/周子意

  據(jù)預(yù)印本平臺(tái)bioRxiv12月底發(fā)布的一份預(yù)印報(bào)告顯示,一篇由人工智能(AI)聊天機(jī)器人寫出的研究論文摘要,甚至最終能騙過專家審核。這一報(bào)告一經(jīng)發(fā)出就受到人們的廣泛關(guān)注,研究人員對(duì)該AI機(jī)器人的影響力有著巨大爭議。

  聊天機(jī)器人ChatGPT的所有者是一家位于舊金山的軟件公司OpenAI,該公司于11月30日發(fā)布了這款A(yù)I工具,并提供了免費(fèi)試用。

  ChatGPT可以根據(jù)用戶的提示創(chuàng)建實(shí)際且智能的文本。它是一個(gè)“大型語言模型”,是一個(gè)基于神經(jīng)網(wǎng)絡(luò)的系統(tǒng),通過消化大量現(xiàn)有的人類生成的文本來學(xué)習(xí)并執(zhí)行任務(wù)。

  上周,有消息稱,美國科技巨頭微軟計(jì)劃向OpenAI投資高達(dá)100億美元,目前尚處于談判階段。

  難以區(qū)分

  自從它發(fā)布以來,由于該機(jī)器人的大部分輸出內(nèi)容就很難與人工書寫出的文本進(jìn)行區(qū)分,研究人員一直在努力解決圍繞其使用的倫理問題。

  現(xiàn)在,伊利諾斯州西北大學(xué)Catherine Gao領(lǐng)導(dǎo)的一個(gè)小組已經(jīng)開展了一項(xiàng)研究:使用ChatGPT生成研究論文摘要,以測試科學(xué)家是否能發(fā)現(xiàn)它們。

  研究人員要求ChatGPT根據(jù)發(fā)表在四大醫(yī)學(xué)頂刊《美國醫(yī)學(xué)會(huì)雜志》、《新英格蘭醫(yī)學(xué)雜志》、《英國醫(yī)學(xué)雜志》、《柳葉刀》以及《自然》子刊《自然醫(yī)學(xué)》上的精選文章,撰寫50篇醫(yī)學(xué)研究摘要。

  隨后該小組通過抄襲檢測系統(tǒng)和人工智能輸出檢測器,將這些摘要與原始摘要混在一起匿名比較,要求一組醫(yī)學(xué)研究人員找出由ChatGPT輸出的摘要。

  結(jié)果顯示,ChatGPT生成的摘要順利通過了抄襲檢查:其原創(chuàng)性平均得分為100%,這表明沒有檢測到抄襲。人工智能輸出檢測器發(fā)現(xiàn)了66%的由ChatGPT生成的摘要。

  而人工審閱者錯(cuò)誤地將32%的生成摘要識(shí)別為原始摘要。

  重大爭議

  Gao和他的同事在預(yù)印本報(bào)告中寫道,ChatGPT確實(shí)寫出了可信的科學(xué)摘要,不過使用大型語言模型來幫助科學(xué)方面的寫作,其道德界限和可接受程度仍有待商榷。

  英國牛津大學(xué)技術(shù)和監(jiān)管領(lǐng)域?qū)W者Sandra Wachter不是此次研究的參與者,但是她對(duì)此表示非常擔(dān)心。她補(bǔ)充道,“如果我們現(xiàn)在處于連專家都無法判斷真假的情況下,那么我們就不會(huì)再看到那些能夠在復(fù)雜話題中指導(dǎo)我們的論文摘要。”

  Wachter提醒道,如果由ChatGPT生成的論文內(nèi)容無法確定是否正確,那可能會(huì)有“可怕的后果”。這不光會(huì)給研究人員帶來重大問題,因?yàn)樗麄冮喿x的研究是被捏造出來的;而且對(duì)整個(gè)社會(huì)也有影響,因?yàn)榭茖W(xué)研究在社會(huì)中扮演著重要角色。

  Wachter警告,更嚴(yán)重的或許導(dǎo)致基于研究的政策決定出現(xiàn)失誤。

  新澤西州普林斯頓大學(xué)的計(jì)算機(jī)科學(xué)家Arvind Narayanan認(rèn)為,“任何嚴(yán)肅的科學(xué)家都不太可能使用ChatGPT來生成摘要。”

  他補(bǔ)充道,“問題在于,該工具能否生成準(zhǔn)確而令人信服的摘要。若是不能,那它的缺點(diǎn)是顯著的。”

  Narayanan還表態(tài),此類問題的解決方案不在ChatGPT本身,而是應(yīng)該集中在導(dǎo)致這種行為的不良動(dòng)機(jī)上,例如招聘和晉升審查時(shí)只看論文的量、而不看質(zhì)。

  人工智能公司Hugging Face研究人員Irene Solaiman則認(rèn)為,“這些AI模型是根據(jù)過去的信息進(jìn)行訓(xùn)練的,而社會(huì)和科學(xué)的進(jìn)步往往來自于與過去不同的思維,或開放思維。”

  Solaiman補(bǔ)充說,在醫(yī)學(xué)等關(guān)鍵領(lǐng)域,假信息可能危及人類的安全,所以一些期刊必須采取更嚴(yán)格的方法來驗(yàn)證信息的準(zhǔn)確性。

  該預(yù)印報(bào)告的研究小組建議,那些評(píng)估科學(xué)傳播的人士應(yīng)該制定政策,杜絕使用人工智能生成的文本。而要是機(jī)構(gòu)選擇允許在某些情況下使用該技術(shù),他們應(yīng)該就披露建立明確的規(guī)則。

論文人工智能ChatGPT
新浪科技公眾號(hào)
新浪科技公眾號(hào)

“掌”握科技鮮聞 (微信搜索techsina或掃描左側(cè)二維碼關(guān)注)

創(chuàng)事記

科學(xué)探索

科學(xué)大家

蘋果匯

眾測

專題

官方微博

新浪科技 新浪數(shù)碼 新浪手機(jī) 科學(xué)探索 蘋果匯 新浪眾測

公眾號(hào)

新浪科技

新浪科技為你帶來最新鮮的科技資訊

蘋果匯

蘋果匯為你帶來最新鮮的蘋果產(chǎn)品新聞

新浪眾測

新酷產(chǎn)品第一時(shí)間免費(fèi)試玩

新浪探索

提供最新的科學(xué)家新聞,精彩的震撼圖片