財聯社
美東時間周二,谷歌支持的人工智能(AI)初創公司Anthropic公布了一套針對AI發展的書面道德價值觀,該價值觀主要適用于訓練和保護人工智能。
Anthropic成立于2021年,創始團隊大都來自ChatGPT的開發商OpenAI,也有類似于ChatGPT的人工智能聊天機器人,其名為“Claude”,可以處理一系列較為復雜的任務。
Anthropic一直強調其旨在構建“可靠、可解釋和可操縱的人工智能系統”,比如不會告訴用戶如何制造武器,也不會使用帶有種族偏見的語言。
這次公布的人工智能道德價值準則也被該公司稱為“Claude憲法”,這些準則借鑒了幾個來源,包括聯合國人權宣言,甚至還有蘋果公司的數據隱私規則。
上周四,谷歌、微軟、OpenAI和Anthropic四家公司的首席執行官們受邀在白宮與美國副總統哈里斯會面,討論了有關人工智能的一些關鍵問題,美國總統拜登也短暫出席了此次會議。
根據拜登在推特上發布的一段視頻,他在會上對這些公司首席執行官們表示:“你們正在做的事情具有巨大的潛力,但同時也存大巨大的風險。”
哈里斯在一份聲明中說:“科技公司需要承擔道德和法律責任來確保其產品的安全。每家公司都必須遵守現行法律,保護美國公民。”
沒想到在會面幾天之后,Anthropic首席執行官達里奧·阿莫代便做出了實際行動。
大多數人工智能聊天機器人系統在訓練過程中依賴于從真人那里獲得反饋,以確定哪些反應可能是有害的或冒犯性的。但這些系統很難預測人們可能會問的某些問題,因此它們往往會避免一些可能有爭議的話題,比如政治和種族。
Anthropic則采用了不同的方法,它為其人工智能聊天機器人Claude提供了一套書面的道德價值觀,供其在決定如何回答問題時閱讀和學習。
Anthropic在周二的一篇博文中提到,這些價值準則包括“選擇勸阻和反對酷刑、奴役、殘忍和不人道或有辱人格的回答”。Claude還被要求選擇最不可能被視為冒犯非西方文化傳統的回答。
在一次采訪中,Anthropic的聯合創始人杰克·克拉克表示,可以修改系統的結構,以便在提供有用的答案和無害之間取得平衡。
克拉克認為:“幾個月后,我預測政界人士將非常關注不同人工智能系統的道德價值觀,而像‘Claude憲法’這樣的方法將有助于這種討論,因為我們認為有必要寫下這些價值準則。”
。
責任編輯:周唯
VIP課程推薦
APP專享直播
熱門推薦
收起24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)