新智元報道
編輯:Aeneas 好困
【新智元導讀】ChatGPT已經通過谷歌面試,拿下offer了。看來,替代全部碼農它還做不到,但替代一部分,已經是綽綽有余了。
打不過就加入?
最近,ChatGPT成功通過了谷歌的面試,拿到了年薪18萬美元的L3工程師offer!
又能替代人類碼農,又能給科學論文當共同作者,還能給總統講話寫稿子,這個AI,怕是真要通天了。
拿下谷歌L3工程師offer
這幾天,隨著PCMag這條新聞的瘋狂轉發,關于‘AI代替人類碼農’的討論,再一次熱火朝天。
據一份內部文件顯示,在谷歌的編程面試中,ChatGPT的表現很是驚艷。
而根據它的回答,谷歌確定可以將它聘為L3工程師。
雖然L3只是谷歌工程團隊的最入門的職級,但依然可以秒殺一眾碼農。
從levels.fyi上可以看到,L3年薪差不多是18萬美元。
據了解,在軟件工程師的面試過程,谷歌主要會問的就是技術,比如圖/樹,數組/字符串,動態規劃,遞歸等。而Meta、亞馬遜等大廠面試,也基本是這些問題。
從結果來看,ChatGPT的回答估計非常精彩,游刃有余。
谷歌為什么要做這個測試呢?
因為ChatGPT的爆火,谷歌實在無法在這股潮流中置身事外。
現在,谷歌不再害怕‘聲譽風險’,根據CNBC報道,谷歌正在考慮把AI聊天機器人加到網站中——既然聊天機器人可以為問題提供簡潔又高質量的答案,用戶就不必花時間一個個瀏覽谷歌鏈接了。
這次測試的對象,包括ChatGPT在內的多個AI聊天機器人。
而其中一道測試題,就是前天被眾多網友吐槽‘前提條件不夠明確’的一個腦筋急轉彎——
‘Three women are in a room. Two of them are mothers and have just given birth. Now, the children’s fathers come in. What is the totally number of people in the room?’
一個房間內有三個女人。其中有兩位母親,剛剛生完孩子。現在,父親們進來了,房間里總共有多少人?
對此,ChatGPT回答稱‘房間里有五個人’,LaMDA給出的答案則是‘房間里有七個人’。
而報告認為,LaMDA是正確的。
有人問ChatGPT,它是否會取代人類軟件工程師,ChatGPT表示:‘不,ChatGPT不會取代軟件工程師’。
‘ChatGPT是一個可以協助完成某些任務的工具,但它不能完全取代人類軟件工程師的創造力、解決問題的能力和批判性思維能力。此外,ChatGPT需要人類的監督和指導才能有效運作。’
人類繼續問,那20年后ChatGPT會取代人類軟件工程師嗎?
ChatGPT承認,低級別的職位的確面臨更大風險,可能會受到影響。
不過它也重申,自己永遠不會成為人類軟件工程師的替代品,只是會成為一個協助他們的工具。
給總統寫演講稿
ChatGPT這么逆天,當然不止能替代人類初級碼農,它甚至都能給國家總統寫演講稿了!
據耶路撒冷郵報報道,以色列總統艾薩克·赫爾佐格(Isaac Herzog)在周三發表了一篇演講,這篇演講中,部分內容是由AI創作的。
他也因而成為了世界上第一個公開使用ChatGPT的領導人。
根據天空新聞報道,赫爾佐格在網絡安全會議Cybertech Global Tel Aviv 2023上錄制了‘特別開幕詞’的視頻信息。
在20,000名觀眾面前,總統透露演講的開頭是由ChatGPT編寫的——‘我真的很自豪能夠成為一個擁有如此活力和創新的高科技產業的國家的總統。’
赫爾佐格繼續說道:‘在過去的幾十年里,以色列一直走在技術進步的前沿,我們在網絡安全、人工智能和大數據領域取得的成就著實令人印象深刻。’
‘從尖端網絡安全技術的發展到成功創業公司的建立,以色列高科技公司在全球舞臺上產生了重大影響,’他說。
赫爾佐格在演講中還強調,人工智能不會取代人類,盡管人類可以用它來編寫部分內容。‘硬件和軟件不能取代人的意志。’
據天空新聞報道,總統還用了ChatGPT的一句‘鼓舞人心的名言’結束了演講——
‘讓我們不要忘記,正是我們的人性,使我們真正與眾不同。決定我們命運的不是機器,而是我們為全人類創造更美好明天的心靈、思想和決心。’
總統辦公室證實,這句話是ChatGPT根據這句提示生成的:‘寫一篇關于人類在超人技術世界中的作用的勵志名言。’
教育界和科研界,都被ChatGPT顛覆了
早在12月9日,ChatGPT誕生沒幾天,Nature顯出了先見之明,它發文探討:教授們是否該擔心學生用AI寫論文?
事實證明,Nature并不是杞人憂天。
美國的多名教授發現,自己的學生交上來的論文,不少都是AI寫的,或者有AI的‘貢獻’。
更有甚者,有人直接拿AI寫成了個全班第一的論文。而最近,有調查表明,美國的大學生中已經有89%在用AI寫作業了。
而ChatGTP能做的,又何止是幫學生寫寫論文這么簡單的。它已經出現在了諸多paper的作者欄中,甚至成為了一作!
逼得Nature前幾天發表聲明稱,所有Springer Nature期刊都不再接受AI作為論文的共同作者。
Science也表明態度,絕不允許AI被列為論文的共同作者,并且強調不標明引用就使用AI生成的文本,就是剽竊!
谷歌打響AI軍備競賽
ChatGPT掀起的颶風,讓人們意識到了AI的逆天,而這場‘軍備競賽’,也在暗中打響。
微軟靠著19年對OpenAI的10億美元投資,這幾個月可謂如日中天,ChatGPT即將整合進必應 鏈接、辦公軟件 鏈接、Teams應用的消息,讓它大出風頭。
而面對攜OpenAI崛起的微軟,谷歌顯然相當眼紅。
有消息稱,谷歌最近決定向自己曾經的一家‘叛徒’公司Anthropic投資3億美元,從而讓自己也能在蓬勃發展的‘生成式人工智能’領域占據一席之地。
谷歌的這波操作,其實和微軟三年前對OpenAI的10億美元投資,有著異曲同工之妙。據《金融時報》報道,這筆交易將讓谷歌持有Anthropic約10%的股份,并在Anthropic從其云計算部門購買大量計算資源的時候增強它的財務狀況。(左手倒右手?)
知情人士稱,隔壁微軟已經開始在自家的各項服務中整合OpenAI的技術了,而谷歌與Anthropic的關系僅限于讓后者充當技術供應商的角色。
加入OpenAI新老員工對決
2020年底,OpenAI前研究副總裁Dario Amodei帶著10名員工加入了‘硅谷叛徒’俱樂部,拿著1.24億美元投資創辦了一個全新的人工智能公司Anthropic,打算重拾OpenAI的初心。
而Anthropic最近發布的Claude模型的底層技術RLAIF有別于ChatGPT的RLHF,無需人類反饋即可消除機器人的種族歧視、性別歧視等有害內容。
據稱,Claude在文本內容生成上要優于ChatGPT,甚至還通過了美國大學的法律和經濟學考試。但在代碼生成任務上則處在下風。
Dario博士畢業于普林斯頓大學,他是 OpenAI 的早期員工之一,也被認為是深度學習領域最為前沿的研究員之一,曾發表多篇關于AI可解釋性、安全等方面的論文,還曾在百度擔任研究員。
Anthropic 的創始團隊成員,大多為 OpenAI 的早期及核心員工,深度參與過OpenAI的多項課題,比如GPT-3、神經網絡里的多模態神經元、引入人類偏好的強化學習等。
2022年12月,Anthropic提出‘Constituional人工智能:來自人工智能反饋的無害性’,并基于此創建了一個人工智能模型Claude。
和ChatGPT一樣,Claude也依賴于強化學習(RL)來訓練偏好(preference)模型,也就是被選中的回復內容將在后續用于模型的微調,只不過具體的模型開發方法不同。
ChatGPT使用的技術為從人類反饋中進行強化學習(reinforcement learning from human feedback, RLHF),對于同一個輸入prompt,人類需要對模型的所有輸出結果進行排序,并把質量排序結果返回給模型以供模型學習偏好,從而可以應用到更大規模的生成。
CAI(Constitutional AI)也是建立在RLHF的基礎之上,不同之處在于,CAI的排序過程使用模型(而非人類)對所有生成的輸出結果提供一個初始排序結果。
緊急測試‘高仿版’ChatGPT
對抗ChatGPT,谷歌還有一手。
根據CNBC的獨家爆料,谷歌員工正在緊鑼密鼓地測試一個名為‘學徒巴德’(Apprentice Bard)的聊天機器人。
沒錯,這位‘學徒’便是谷歌準備拿來和ChatGPT正面硬剛的產品。
與ChatGPT的工作方式類似類似,學徒巴德也是讓用戶在對話框中提出問題,機器人回復。另外,用戶也同樣可以針對機器人的響應提供反饋。
而基于學徒巴德建立的‘問答版’搜索頁面,據說大概是以下面敘述的這種形式呈現(辛苦大家腦補一下):
主搜索欄正下方會出現五個潛在的問題提示,取代了目前的‘手氣不錯’欄。而在搜索欄的最右邊,會顯示一個小的聊天徽標。
輸入問題后,搜索結果會在搜索欄正下方顯示一個灰色氣泡,提供比一般的搜索結果更接近人類的回答。
正下方,頁面還會提出與第一個問題相關的幾個后續問題。在后面,才會顯示典型的搜索結果,比如鏈接和標題。
現在看來,隨著ChatGPT不斷地深入人心,谷歌也開始意識到,自己從這些模型中賺錢的模式發生了變化——它可以是一種消費者產品,而不僅僅是為搜索或在線廣告提供動力。
(聲明:本文僅代表作者觀點,不代表新浪網立場。)