財聯社
當地時間周一(5月22日),聊天機器人開發公司OpenAI的三位創始人CEO山姆·奧特曼、總裁Greg Brockman和首席科學家Ilya Sutskever在公司博客聯合撰文,發表了他們對治理超級智能的看法。
文章指出,在未來10年,人工智能(AI)系統將在大多數領域超越人類專家的技能水平,在開展生產活動方面能夠比肩巨頭公司。超級智能既有巨大的好處,也有巨大的風險,它可以創造一個更加繁榮的未來,但也存在需要加以管理的風險。
奧特曼等在文章中將超級智能比作核能和合成生物學,由于它們的潛在風險,需要特殊的處理和協調。他們提出了引導超級智能發展的三個關鍵要點。
首先,領先的AI開發工作需要協調,以確保安全并順利融入社會。各國政府可以建立相關項目,或者就AI能力增長的限制達成一致。
其次,達到一定水平的AI項目應該受到國際權威的約束,類似于國際原子能機構(IAEA)對核能的監管,該機構負責檢查系統,執行安全標準,并對部署和安全性進行限制。
最后,有必要進行針對超級智能的安全性進行研究,而這正是OpenAI和其他公司正在進行的研究領域。
文章強調,監管不能扼殺低于一定門檻的AI模型的發展,公司和開源項目應該有開發這種模型的自由,而不需要繁瑣的監管。
三位創始人在文章最后解釋了OpenAI開發超級智能的原因,他們相信它會帶來一個更美好的世界,能解決問題,改善社會。另一方面,阻止超級智能的發展是危險且困難的,其潛在好處太大了,建造成本每年都在下降,參與者正在迅速增加。因此,謹慎對待超級智能的發展至關重要。
炒股開戶享福利,送投顧服務60天體驗權,一對一指導服務!
海量資訊、精準解讀,盡在新浪財經APP
責任編輯:周唯
VIP課程推薦
加載中...
APP專享直播
熱門推薦
收起
新浪財經公眾號
24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)