首页 国产 亚洲 小说图片,337p人体粉嫩胞高清视频,久久精品国产72国产精,国产乱理伦片在线观看

設為書簽 Ctrl+D將本頁面保存為書簽,全面了解最新資訊,方便快捷。 您也可下載桌面快捷方式。點擊下載 | 新浪科技 | 新浪首頁 | 新浪導航

GPT-4王者加冕!讀圖做題性能炸天,憑自己就能考上斯坦福

2023-03-15 09:25:38    創事記 微博 作者: 新智元   

  新智元報道  

  編輯:編輯部

  【新智元導讀】Open AI的GPT-4在萬眾矚目中閃亮登場,多模態功能太炸裂,簡直要閃瞎人類的雙眼。李飛飛高徒、斯坦福博士Jim Fan表示,GPT4憑借如此強大的推理能力,已經可以自己考上斯坦福了!

  果然,能打敗昨天的Open AI的,只有今天的Open AI。

  剛剛,Open AI震撼發布了大型多模態模型GPT-4,支持圖像和文本的輸入,并生成文本結果。

  號稱史上最先進的AI系統!

  GPT-4不僅有了眼睛可以看懂圖片,而且在各大考試包括GRE幾乎取得了滿分成績,橫掃各種benchmark,性能指標爆棚。

  Open AI 花了 6 個月的時間使用對抗性測試程序和 ChatGPT 的經驗教訓對 GPT-4 進行迭代調整 ,從而在真實性、可控性等方面取得了有史以來最好的結果。

  大家都還記得,2月初時微軟和谷歌鏖戰三天,2月8日微軟發布ChatGPT版必應時,說法是必應‘基于類ChatGPT技術’。

  今天,謎底終于解開了——它背后的大模型,就是GPT-4!

  圖靈獎三巨頭之一Geoffrey Hinton對此贊嘆不已,‘毛蟲吸取了營養之后,就會化繭為蝶。而人類提取了數十億個理解的金塊,GPT-4,就是人類的蝴蝶。’

  順便提一句,ChatGPT Plus用戶現在可以先上手了。

  考試幾乎滿分,性能躍遷炸天

  在隨意談話中,GPT-3.5和GPT-4之間的區別是很微妙的。只有當任務的復雜性達到足夠的閾值時,差異就出現了,GPT-4比GPT-3.5 更可靠、更有創意,并且能夠處理更細微的指令。

  為了了解這兩種模型之間的差異,Open AI在各種基準測試和一些為人類設計的模擬考試上進行了測試。

  GPT-4在各種考試中,有幾個測試幾乎接近了滿分:

  • USABO Semifinal 2020(美國生物奧林匹克競賽)

  • GRE Writing

  以美國 BAR律師執照統考為例,GPT3.5可以達到 10%水平,GPT4可以達到90%水平。生物奧林匹克競賽從GPT3.5的31%水平,直接飆升到 99%水平。

  此外,Open AI 還在為機器學習模型設計的傳統基準上評估了 GPT-4。從實驗結果來看,GPT-4 大大優于現有的大型語言模型,以及大多數 SOTA 模型:

  另外,GPT-4在不同語種上的能力表現:中文的準確度大概在 80% 左右,已經要優于GPT-3.5的英文表現了。

  許多現有的 ML 基準測試都是用英語編寫的。為了初步了解GPT-4其他語言的能力,研究人員使用 Azure翻譯將 MMLU 基準(一套涵蓋57個主題的14000個多項選擇題)翻譯成多種語言。

  在測試的 26 種語言的 24 種中,GPT-4 優于 GPT-3.5 和其他大語言模型(Chinchilla、PaLM)的英語語言性能:

  Open AI表示在內部使用 GPT-4,因此也關注大型語言模型在內容生成、銷售和編程等方面的應用效果。另外,內部人員還使用它來幫助人類評估人工智能輸出。

  對此,李飛飛高徒、英偉達AI科學家Jim Fan點評道:‘GPT-4最強的其實就是推理能力。它在GRE、SAT、法學院考試上的得分,幾乎和人類考生沒有區別。也就是說,GPT-4可以全靠自己考進斯坦福了。’

  (Jim Fan自己就是斯坦福畢業的!)

  網友:完了,GPT-4一發布,就不需要我們人類了……

  讀圖做題小case,甚至比網友還懂梗

  GPT-4此次升級的亮點,當然就是多模態。

  GPT-4不僅能分析匯總圖文圖標,甚至還能讀懂梗圖,解釋梗在哪里,為什么好笑。從這個意義上說,它甚至能秒殺許多人類。

  Open AI稱,GPT-4比以往模型都更具創造力和協作性。它可以生成、編輯和迭代用戶進行創意和技術寫作任務,例如創作歌曲、編寫劇本或學習用戶的寫作風格。

  GPT-4可以將圖像作為輸入,并生成標題、分類和分析。比如給它一張食材圖,問它用這些食材能做什么。

  另外,GPT-4能夠處理超過25,000字的文本,允許用長形式的內容創建、擴展會話、文檔搜索和分析。

  GPT-4在其先進的推理能力方面超過了ChatGPT。如下:

  梗圖識別

  比如,給它看一張奇怪的梗圖,然后問圖中搞笑在哪里。

  GPT-4拿到之后,會先分析一波圖片的內容,然后給出答案。

  比如,逐圖分析下面這個。

  GPT-4立馬反應過來:圖里的這個‘Lighting充電線’,看起來就是個又大又過氣的VGA接口,插在這個又小又現代的智能手機上,反差強烈。

  再給出這么一個梗圖,問問GPT-4梗在哪里?

  它流利地回答說:這個梗搞笑的地方在于‘圖文不符’。

  文字明明說是從太空拍攝的地球照片,然而,圖里實際上只是一堆排列起來像地圖的雞塊。

  GPT-4還能看懂漫畫:為什么要給神經網絡加層數?

  它一針見血地點出,這副漫畫諷刺了統計學習和神經網絡在提高模型性能方法上的差異。

  圖表分析

  格魯吉亞和西亞的平均每日肉類消費量總和是多少?在給出答案前,請提供循序漸進的推理。

  果然,GPT-4清楚地列出了自己的解題步驟——

  1. 確定格魯吉亞的平均每日肉類消費量。

  2. 確定西亞的平均每日肉類消費量。

  3. 添加步驟1和2中的值。

  做物理題

  要求GPT-4解出巴黎綜合理工的一道物理題,測輻射熱計的輻射檢測原理。值得注意的是,這還是一道法語題。

  GPT-4開始解題:要回答問題 I.1.a,我們需要每個點的溫度 T(x),用導電棒的橫坐標x表示。

  隨后解題過程全程高能。

  你以為這就是GPT-4能力的全部?

  老板Greg Brockman直接上線進行了演示,通過這個視頻你可以很直觀的感受到 GPT-4的能力。

  最驚艷的是,GPT-4對代碼的超強的理解能力,幫你生成代碼。

  Greg直接在紙上畫了一個潦草的示意圖,拍個照,發給 GPT說,給我按照這個布局寫網頁代碼,就寫出來了。

  另外,如果運行出錯了把錯誤信息,甚至錯誤信息截圖,扔給GPT-4都能幫你給出相應的提示。

  網友直呼:GPT-4發布會,手把手教你怎么取代程序員。

  順便提一句,用GPT-4還可以進行報稅 。要知道,每年美國人要花好多時間金錢在報稅上面。

  訓練過程

  和以前的GPT模型一樣,GPT-4基礎模型的訓練使用的是公開的互聯網數據以及Open AI授權的數據,目的是為了預測文檔中的下一個詞。

  這些數據是一個基于互聯網的語料庫,其中包括對數學問題的正確/錯誤的解決方案,薄弱/強大的推理,自相矛盾/一致的聲明,足以代表了大量的意識形態和想法。

  當用戶給出提示進行提問時,基礎模型可以做出各種各樣的反應,然而答案可能與用戶的意圖相差甚遠。

  因此,為了使其與用戶的意圖保持一致,Open AI使用基于人類反饋的強化學習(RLHF)對模型的行為進行了微調。

  不過,模型的能力似乎主要來自于預訓練過程,RLHF并不能提高考試成績(如果不主動進行強化,它實際上會降低考試成績)。

  基礎模型需要提示工程,才能知道它應該回答問題,所以說,對模型的引導主要來自于訓練后的過程。

  GPT-4模型的一大重點是建立了一個可預測擴展的深度學習棧。因為對于像GPT-4這樣的大型訓練,進行廣泛的特定模型調整是不可行的。

  因此,Open AI團隊開發了基礎設施和優化,在多種規模下都有可預測的行為。

  為了驗證這種可擴展性,研究人員提前準確地預測了GPT-4在內部代碼庫(不屬于訓練集)上的最終損失,方法是通過使用相同的方法訓練的模型進行推斷,但使用的計算量為1/10000。

  現在,Open AI 可以準確地預測在訓練過程中優化的指標損失。例如從計算量為1/1000的模型中推斷并成功地預測了HumanEval數據集的一個子集的通過率:

  還有些能力仍然難以預測。比如,Inverse Scaling競賽旨在找到一個隨著模型計算量的增加而變得更糟的指標,而 hindsight neglect任務是獲勝者之一。但是GPT-4 扭轉了這一趨勢:

  Open AI認為能夠準確預測未來的機器學習能力對于技術安全來說至關重要,但它并沒有得到足夠的重視。

  而現在,Open AI正在投入更多精力開發相關方法,并呼吁業界共同努力。

  貢獻名單

  就在GPT-4發布的同時,Open AI還公開了GPT-4這份組織架構及人員清單。

  上下滑動查看全部

  北大陳寶權教授稱,

再好看的電影,最后的演職員名單也不會有人從頭看到尾。Open AI的這臺戲連這個也不走尋常路。毫無疑問這將是一份不僅最被人閱讀,也被人仔細研究的‘演職員’(貢獻者) 名單,而最大的看頭,是詳細的貢獻分類,幾乎就是一個粗略的部門設置架構了。

這個很‘大膽’的公開其實意義挺深遠的,體現了Open AI背后的核心理念,也一定程度預示了未來進步的走向。

(聲明:本文僅代表作者觀點,不代表新浪網立場。)

分享到:
保存   |   打印   |   關閉