歡迎關注“新浪科技”的微信訂閱號:techsina
原標題:生成AI登上達沃斯論壇,OpenAI CEO發話稱AI將邁向下一個紀元
編輯:Joey
來源:新智元
【新智元導讀】2023年的達沃斯論壇這次邀請了OpenAI的CEO Sam Altman發表主題為‘AI邁向下一個紀元’的閉幕演講,并預測了未來AI的發展方向。
過去的一年里,生成式AI(Generative AI)可謂是強勢出圈。
從文本到圖像到視頻甚至代碼,你能想到的生成AI幾乎都能幫你做到。
這不,2023年世界經濟年度峰會,也就是達沃斯論壇也點名表揚了生成AI在2022年所取得的輝煌成就。
本文將生成式AI稱為‘社會和企業需要鄭重應對的破局者’,足以見其重視程度。
此外,論壇還邀請了OpenAI的CEO Sam Altman出席并發表了‘AI邁向下一個紀元’的閉幕主題演講,同時討論了關于AI未來發展對經濟社會的幫助等一系列話題。
這次與Altman對話訪談的是美國知名企業、領英聯合創始人里德·霍夫曼 (Reid Hoffman)。
我們截取了一小段對話訪談的片段,完整訪談鏈接也貼在下面啦。
Reid Hoffman:所以我認為很多人感興趣的一件事是,基于 API將創建非常大的模型,那么真正的商機是什么?前瞻的方式有哪些?鑒于API將可供多個玩家使用,您如何創建獨特的業務?
Sam Altman:是的。所以我認為到目前為止,我們已經進入了一個無窮可能性的領域,你可以通過模型完成許多過去復雜的事情。但我猜想,隨著我們在未來幾年看到的語言模型的質量,搜索產品將首次對谷歌構成嚴峻挑戰。包括我們的ChatGPT之前還被人們嘲笑,但現在它體現出的能力讓任何公司都不容忽視。
Altman認為人工智能是所有科技發展的基礎平臺,從大型語言模型到圖像和語言之間切換的多模態應用的巨大飛躍,到顯著擴展科學家能力的應用程序,所有行業都將從中取得許多進步。
最后文章還總結了這些年來生成AI的發展歷史。
上一組圖來看看,從2014到2022生成AI在圖像品質上的飛越,這些圖片都是由AI模型生成的現實中不存在的人。
生成式預訓練轉換器 (GPT) 是一種大型語言模型 (LLM),它使用深度學習來生成類似人類的文本。
盡管當前市場低迷,科技行業裁員,但生成式人工智能公司繼續受到投資者的關注。
例如Stability AI和Jasper最近分別融資了1.01億美元和1.25億美元,紅杉資本等投資者認為生成式 AI 領域可以產生數萬億美元的經濟價值。
隨著Stable Diffusion和ChatGPT等新模型的發布,生成式AI已成為技術專家、投資者、政策制定者和整個社會的熱門話題。
生成式AI并不是一個全新的概念,生成式 AI 背后的機器學習技術在過去十年中不斷發展。
生成式AI訓練模型的工作原理是從大型數據集中學習,并使用這些知識生成與訓練數據集中示例相似的新數據。
這通常是使用一種稱為生成模型的機器學習算法來完成的。生成式模型有許多不同類型,每一種都使用不同的方法生成新數據。
一些常見的生成模型類型包括生成對抗網絡(GAN)、VAE和自回歸模型。
例如,在人臉圖像數據集上訓練的生成模型可能會學習人臉的一般結構和外觀,然后使用這些知識生成新的、以前未見過的但是看起來真實可信的人臉。
生成模型用于各種應用程序,包括圖像生成、自然語言處理和音樂生成。它們對于手動生成新數據非常困難的任務特別有用,比如為產品創建新設計或生成聽起來很逼真的語音。
OpenAI 的最新版本 ChatGPT 引起了轟動,并在短短五天內吸引了 100 萬用戶,被描述為在更廣泛的任務領域取得了突破。
目前正在討論的用例包括搜索引擎的新架構、解釋復雜的算法、創建個性化治療機器人、幫助從頭開始構建應用程序、解釋科學概念等。
Midjourney、DALL-E 和 Stable Diffusion 等文本到圖像程序有可能改變藝術、動畫、游戲、電影和建筑等的渲染方式。
基于人機合作的新時代,樂觀主義者聲稱,生成式人工智能將有助于藝術家和設計師的創作過程,因為生成式人工智能系統將增強現有任務,加速構思,并從根本上加快創作階段。
除了創意空間,生成式AI模型在計算機工程等復雜科學領域具有變革能力。
例如,微軟擁有的GitHub Copilot基于OpenAI的Codex模型,可以建議代碼并協助開發人員自動完成他們的編程任務。
該系統被引用為自動完成高達 40% 的開發人員代碼,大大增加了工作流程。
潛在和未知的風險
雖然生成式人工智能讓人們對它所帶來的創造力感到激動,但也有人擔心這些模型對社會的影響。
數字藝術家Greg Rutkowski擔心互聯網上會充斥著與他自己的作品無法區分的藝術品,只需告訴系統以他獨特的風格復制藝術品即可。
藝術教授 Carson Grubaugh 也有同樣的擔憂,并預測大部分創意勞動力,包括從事娛樂、視頻游戲、廣告和出版業的商業藝術家,可能會因為生成人工智能模型而失業。
除了對任務和工作產生深遠影響外,生成式AI模型和相關的外部性在AI治理社區引起了警覺。
大型語言模型的問題之一是它們能夠生成虛假和誤導性內容。
Meta 的Galactica——一個在 4800 萬篇科學文章上訓練的模型,聲稱可以總結學術論文、解決數學問題和編寫科學代碼——在上線不到三天后就被撤下了,因為科學界發現它對學生產生了誤解,產出了錯誤的數據和知識。
另外通過圖靈測試的機器人表現出與人類相似或無法區分的智能行為的能力,此類功能可能會被濫用來跨平臺和生態系統生成虛假信息。
大型模型繼續在書籍、文章和網站中代表的大量數據集上進行訓練,這些數據集可能以難以完全過濾的方式存在偏差。
盡管在 ChatGPT 的案例中通過使用人類反饋強化學習 (RLHF) 大大減少了有害和不真實的輸出,但 OpenAI 承認他們的模型仍然會產生惡意和有偏見的輸出。
(聲明:本文僅代表作者觀點,不代表新浪網立場。)