安裝新浪財經客戶端第一時間接收最全面的市場資訊→【下載地址】
財聯社4月1日訊(編輯 牛占林)本周一封由埃隆·馬斯克等人簽署的公開信在網上熱傳,再度將ChatGPT等人工智能(AI)推到了風口浪尖。但隨著時間的流逝,這場活動似乎變成了一場鬧劇。
這封公開信由非營利組織未來生命研究所(Future of Life Institute)對外公布,其名題為“暫停巨型AI實驗:一封公開信”。截至周五,已經有1800多名科技公司高管和頂級AI研究人員進行了署名,
他們呼吁暫停訓練比GPT-4更強大的AI系統。最好有六個月乃至更長時間的暫停,將使該行業有時間制定AI設計方面的安全標準,從而防止風險最高的一些AI技術的潛在危害。
首先,這封信最初允許任何人在沒有身份驗證的情況下簽名,這導致鬧出了一些笑話。OpenAI首席執行官Sam Altman的名字出現在名單上,Altman回應稱,他從未在這封信上簽名。Meta首席AI科學家Yann LeCun和Stability AI首席執行官Mostaque等知名人士也遭遇了類似的情況。
其次,也是最為重要的是,這封公開信聲稱,AI系統對人類構成了深遠的風險,并引用了12項相關專家的研究,這些專家包括大學學者、人工智能專家,以及OpenAI、谷歌及其子公司DeepMind的員工。
如今,這些被引用論文和觀點的專家接連發聲,他們表示并不認可馬斯克等人的觀點,甚至直接稱后者“精神錯亂”。
其中引用的研究包括瑪格麗特·米切爾的著名論文《論隨機鸚鵡的危險》,米切爾現在是人工智能公司Hug Face的首席倫理科學家,她批評了這封信。“通過將許多有問題的想法視為既定事實,這封信提出了一系列有利于未來生命研究所支持者的人工智能敘事。”
她的合著者蒂姆尼特·格布魯和艾米麗.本德也在推特上批評了這封信,本德稱其中一些說法簡直是“精神錯亂”,充斥著對AI的炒作。格布魯表示:“他們基本上和我們說的相反,還引用了我們的論文。”
康涅狄格大學的助理教授Shiri Dori-Hacohen也對信中引用她的論文提出了異議。她去年與人合著了一篇研究論文,認為AI的廣泛使用已經帶來了嚴重的風險。
她的研究認為,目前AI系統的使用可能會影響與氣候變化、核戰爭和其他生存威脅相關的決策。
她最新表示:“人工智能不需要達到人類水平就會加劇這些風險,而有些風險真的非常非常重要,但沒有得到必要的關注。”
而OpenAI首席執行官Altman對此回應稱,從某種意義上說,這是多此一舉,一直以來我們對這些問題的討論是聲音最響、力度最大且持續時間最長的。
責任編輯:李桐
VIP課程推薦
APP專享直播
熱門推薦
收起24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)