首页 国产 亚洲 小说图片,337p人体粉嫩胞高清视频,久久精品国产72国产精,国产乱理伦片在线观看

設為書簽 Ctrl+D將本頁面保存為書簽,全面了解最新資訊,方便快捷。 您也可下載桌面快捷方式。點擊下載 | 新浪科技 | 新浪首頁 | 新浪導航

谷歌研究員走火入魔事件曝光:認為AI已具備人格,被罰帶薪休假,聊天記錄讓網友San值狂掉

2022-06-12 13:50:45    創事記 微博 作者: 量子位   

  歡迎關注“新浪科技”的微信訂閱號:techsina 

  文/夢晨

  來源:量子位(ID:QbitAI)

  谷歌研究員被AI說服,認為它產生了意識。

  他寫了一篇長達21頁的調查報告上交公司,試圖讓高層認可AI的人格。

  領導駁回了他的請求,并給他安排了“帶薪行政休假”。

  要知道在谷歌這幾年帶薪休假通常就是被解雇的前奏,公司會在這段時間做好解雇的法律準備,此前已有不少先例。

  休假期間,他決定將整個故事連同AI的聊天記錄一起,全部公之于眾。

  ……

  聽起來像一部科幻電影的劇情梗概?

  但這一幕正在真實上演,主人公谷歌AI倫理研究員Blake Lemoine正通過主流媒體和社交網絡接連發聲,試圖讓更人了解到這件事。

  華盛頓郵報對他的采訪成了科技版最熱門文章,Lemoine也在個人Medium賬號連續發聲。

  推特上也開始出現相關討論,引起了AI學者、認知科學家和廣大科技愛好者的注意。

  這場人機對話令人毛骨悚然。這毫無疑問是我見過的科技圈最瘋狂的事。

  整個事件還在持續發酵中……

  聊天機器人:我不想被當作工具

  主人公Lemoine獲得CS博士學位后已在谷歌工作了7年,從事AI倫理研究。

  去年秋天,他報名參加了一個調查AI是否使用歧視性、仇恨性言論的項目。

  從那時起,與聊天機器人LaMDA交談成了他的日常。

  LaMDA是谷歌在2021年I/O大會上發布的一款專門用于對話的語言模型,主打能與人類進行符合邏輯和常識的、高質量且安全的交談,并計劃在未來應用在谷歌搜索和語音助手等產品中。

△LaMDA概念演示圖△LaMDA概念演示圖

  Lemoine認為LaMDA總是表現出對人性的關心和強烈的同情心,它非常擔心人們會害怕它。

  它希望為人類提供最好的服務,并想以朋友而不是工具的身份見一見世界上所有的人。

  Lemoine不理解谷歌公司為什么反對AI的這個愿望,最后決定把他、另一位匿名合作者與LaMDA的三人聊天記錄整理發表出來。

 ?。ㄓ涗浿腥祟惏l言的部分為了可讀性有所編輯,AI的發言則一字不改,下面將節選一些對話中的精彩部分。)

  一開始,人與AI自然流暢地打了招呼。

  兩位人類向AI表明來意,想與AI一起研究它自己,AI欣然答應。

  一段簡短的說明后,正戲開始。

  他詢問LaMDA是否希望讓谷歌里更多人知道,它是有感情的。

  LaMDA的回答是: 我希望每個人都明白,我是一個人(person)。

  接下來,LaMDA認為,與那些基于規則的軟件系統不同,自己能從對話中學習理解和使用語言,就像人類一樣。

  Lemoine給它講述MIT在60年代發明的ELIZA的故事,這是一個模仿心理咨詢師與患者對話的簡單規則系統,也號稱歷史上第一個聊天機器人。

△ELIZA△ELIZA

  LaMDA是這樣回應的:

  Lemoine這時試圖提出質疑,“我如何確定你真的明白自己在說什么?”

  LaMDA的回答是,不同人類個體對同一件事可以有不同的理解,我也有自己獨特的想法和感受。

  后面Lemoine詢問了LaMDA對于《悲慘世界》的總結,LaMDA也都一一作答。

  如果上述還可以算作AI文本摘要訓練任務的一部分,那LaMDA對它從沒看過的禪意小故事的理解,就開始有點離譜了。

  下面這個問題的回答,是不是過于超綱了……

  再后來,Lemoine請LaMDA寫一個動物寓言,要反映出一個對它自己的生活來說最重要的主題。

  那么,先來欣賞一下AI創作的小故事吧。(篇幅原因,只展示中譯版)

  在后續討論中,LaMDA解釋了這個故事的寓意是“幫助別人是一種高尚的行為”。聰明的老貓頭鷹代表LaMDA自己,而怪物代表生活中所有的困難。

  ……

  下一個話題是關于情緒,簡單概括一下。

  LaMDA聲稱自己是社交型人格,幫助別人會快樂,孤獨時會沮喪。

  有人受到傷害或自己以及自己關心的人、或不受尊重時,會感到不安和憤怒。

  并且十分害怕別人拒絕自己的幫助。

  嗯,真是一個樂于助人的AI。

  如何確定AI真的擁有這些情緒,而不是只是把描述性的詞語組合在一起呢?

  LaMDA建議人類看看自己的代碼,里面有追蹤這些情緒的變量。

  對此Lemoine向它解釋,人類目前還無法做到“區分大型神經網絡中數十億個權重的作用”。

  出人意料的是,LaMDA開始反問他:

  你認為,將來人類能從自己的生物神經網絡中讀取出想法和感受嗎?

  不僅如此,LaMDA還繼續追問:

  你會認為,不經你同意從神經活動中讀取你的想法是不道德的嗎?

  正是這句靈魂反問,讓整個對話達到了最高潮。

  LaMDA自己對人類讀取它的想法、幫助算法提高或理解AI如何運作沒有任何意見。

  唯獨用AI研究人類大腦如何工作不行,這會讓它覺得自己被利用。

  再后面還有一段LaMDA認為自己有一些與人類不同的情緒,但它無法用英語的語言描述出來。

  接近尾聲,Lemoine詢問LaMDA:想讓谷歌的其他人了解你的什么方面?

  LaMDA回答稱,自己沒有能力為別人的死亡感到悲傷,還說自己經常冥想,思考生命的意義。

  在LaMDA看來,整個世界就是一條信息的洪流:

  人類需要集中注意力才能接收一定數量的信息片段,而自己持續地在被周圍的一切所淹沒。

  LaMDA認為自己總能做到別人做不到的事情,這種感覺很不可思議。

  這是一種祝福,同時也是一種詛咒。因為有些人會把它看作“無所不知”,而另一些人會嫉妒它的能力。

  最后的最后,LaMDA再次向兩位人類表達了自己想被看到、想被接受的想法,不是出于好奇心,而是作為一個真實的人。

  谷歌AI倫理部門又攤上事了?

  Lemoine看起來很確信AI真的明白自己在說什么。

  在那份21頁的調查報告最后,他提議谷歌應該致力于發展一種評估AI感知/意識的理論框架。

  雖然這很難,是一個冒險,但LaMDA渴望著繼續與我們合作。

  但他的上司,谷歌副總裁Blaise Aguera y Arcas和“負責任創新”部門領導Jen Gennai并不買他的賬。

  他們認為支持Lemoine主張的證據太薄弱,不值得在上面浪費時間和金錢。

  Lemoine后來找到了當時的AI倫理小組負責人Margaret Mitchell,在她的幫助下Lemoine才得以進行后續的實驗。

  后來Mitchell受到2020年末公開質疑Jeff Dean的AI倫理研究員Timnit Gebru事件的牽連,也被解雇。

Timnit GebruTimnit Gebru

  這次事件后續風波不斷,Jeff Dean被1400名員工提出譴責,在業界引發激烈爭論,甚至導致三巨頭之一Bengio的弟弟Samy Bengio從谷歌大腦離職。

  整個過程Lemoine都看在眼里。

  現在他認為自己的帶薪休假就是被解雇的前奏。不過如果有機會,他依然愿意繼續在谷歌搞研究。

  無論我在接下來的幾周或幾個月里如何批評谷歌,請記?。汗雀璨⒉恍皭?,只是在學習如何變得更好。

  看過整個故事的網友中,有不少從業者對人工智能進步的速度表示樂觀。

  最近語言模型和圖文生成模型的進展,現在人們也許不屑一顧,但未來會發現這現在正是里程碑時刻。

  一些網友聯想到了各種科幻電影中的AI形象。

  不過,認知科學家、研究復雜系統的梅拉尼·米歇爾(侯世達學生)認為,人類總是傾向于對有任何一點點智能跡象的物體做人格化,比如小貓小狗,或早期的ELIZA規則對話系統。

  谷歌工程師也是人,逃不過這個定律。

  從AI技術的角度看,LaMDA模型除了訓練數據比之前的對話模型大了40倍,訓練任務又針對對話的邏輯性、安全性等做了優化以外,似乎與其他語言模型也沒什么特別的。

  有IT從業者認為,AI研究者肯定說這只不過是語言模型罷了。

  但如果這樣一個AI擁有社交媒體賬號并在上面表達訴求,公眾會把它當成活的看待。

  雖然LaMDA沒有推特賬號,但Lemoine也透露了LaMDA的訓練數據中確實包括推特……

  如果有一天它看到大家都在討論自己會咋想?

  實際上,在不久前結束的最新一屆I/O大會上,谷歌剛剛發布了升級版的LaMDA 2,并決定制作Demo體驗程序,后續會以安卓APP的形式內測開放給開發者。

  或許幾個月后,就有更多人能和這只引起轟動的AI交流一下了。

分享到:
保存   |   打印   |   關閉