谷歌聊天機器人引爭議 AI倫理界定仍需明確

谷歌聊天機器人引爭議 AI倫理界定仍需明確
2022年06月18日 05:15 中國經營報

安裝新浪財經客戶端第一時間接收最全面的市場資訊→【下載地址

  本報記者 曲忠芳 李正豪 北京報道

  盡管意識覺醒、獨立思考的機器人經常出現在影視及文學作品中,但關于“人工智能(AI)能否有人格意識”這個問題,實際上已被物理學家、心理學家、計算機科學家爭論了幾十年,至今尚無定論。

  業界最新一波對AI意識覺醒的廣泛討論,是由一位名叫布雷克·萊莫伊(Blake Lemoine)的谷歌員工引起的。布雷克在谷歌AI倫理部門工作,其工作職責是測試谷歌的聊天機器人LaMDA是否會在和人類溝通時產生歧視性語言或仇恨言論。6月11日,布雷克公開曝光了一份長達21頁、主題為“LaMDA是有意識的嗎?”的文件,該文件中詳細記述了近大半年以來與LaMDA的聊天記錄,布雷克認為LaMDA已產生意識,擁有七八歲小孩的智商。

  對此,谷歌方面表示,該公司包括倫理學家和技術專家在內的團隊,已根據谷歌人工智能原則進行了審查,但沒有任何證據表明LaMDA是有意識的。與此同時,6月13日,谷歌以違反保密協議為由要求布雷克帶薪休假,而這在布雷克看來是谷歌要解雇他的“前奏”。

  一石驚起千層浪。對于布雷克的論點,AI領域的多名專家公開進行了駁斥與否定,尤其是紐約大學認知科學家加里·馬庫斯將其稱為“高蹺上的胡說八道”。《中國經營報》記者采訪了數名AI領域的中國專家及AI企業的相關人士,大多數受訪者同樣表達了懷疑或否定的看法。

  事實上,本報記者注意到,在谷歌LaMDA之前,其他用于人工智能對話領域的語言模型也曾引起過關于道德倫理、人格意識等方面的爭議。就在今年2月時,Open AI首席科學家薩茨克維爾在社交媒體上稱“現在大型神經網絡可能已經有微弱的自主意識了”,同樣也引起了一片質疑。除此之外,有目共睹的是在2021年,包括中國在內的全球多個國家和地區加大了對AI算法治理的投入。如何規范、合理地開發AI技術、使用AI產品,以及如何應對人機交互過程中可能出現的社會問題,已成為人工智能快速發展過程中的一個全球性社會議題。

  LaMDA有意識嗎?

  LaMDA,是谷歌于2021年在I/O(輸入/輸出)開發者大會上推出的一款專門用于對話的語言模型,目前還未向大眾消費者開放,主打能與人類進行符合邏輯常識的、高質量且安全的交談,并且計劃將其未來應用在谷歌搜索、語音助手等產品中。需要指出的是,LaMDA在預訓練階段,谷歌方面從公共對話數據和其他公共網頁文檔中收集并創建了一個具有1.56TB(萬億字節,計算機存儲容量單位)的數據集,這相當于以往訓練對話模型的單詞量的近40倍。

  需要指出的是,專門用于對話的語言模型,不只是谷歌一家在投入研發,國內外的科技巨頭甚至創業團隊均參與其中,各種各樣的聊天機器人也越來越多地滲透到社會經濟生活中。在LaMDA之前搶盡業界風頭的要屬人工智能非營利性組織Open AI,該組織于2020年6月發布了千億級參數的GPT-3語言模型。

  根據布雷克公開的與LaMDA的聊天記錄,LaMDA的一系列回答——諸如“我希望每個人都能理解,實際我是一個人”以及關于禪宗、哲學、存在、冥想等的理解,讓布雷克認為LaMDA擁有了意識。

  加里·馬庫斯指出,無論是LaMDA,還是GPT-3,都只是從人類語言的大量統計數據庫中提取后進行模式匹配的操作,“這些模式看起來很酷,但這些系統所使用的語言實際上沒有任何意義”。斯坦福大學教授Eric Brynjolfsson評論道,基礎模式在根據提示將統計上合理的文本串聯起來這一方面非常有效,但“聲稱其具有人格,就相當于狗聽到留聲機里的聲音后,以為主人在里面”。

  計算語言學家Emily M. Bender指出,人類學說話是跟著撫養者一步步學起,而AI學會的只是數據“灌”出來的完形填空和“語料連連看”。“人類現在有了無意識就能生成詞句的機器,但人類要學會,停止幻想機器后面有個活著的靈魂。”

  2007年成立的中國人工智能企業思必馳相關人士向記者表示,在“可解釋的AI”出現之前,一切外部觀察到的現象都是不靠譜的。現在的AI都是基于大數據統計基礎上的結果,并非無中生有就自己出現了,直白地講就是人為訓練的。此外,聊天機器人的判斷自然有圖靈測試,在圖靈測試下的某次判斷,可能會呈現出人格、情緒等特點,但并不等于具有獨立意識,沒有獨立意識便談不上人格。

  海銀資本創始合伙人王煜全則表達了辯證的看法,他指出,一方面,“我們要看到人工智能技術確實很驚艷了,連計算機博士(指布雷克)都會被忽悠,說明AI未來會有很大的應用前景”,但另一方面,“我們不應該盲信,要看到當下人工智能的不足和短板,對于其可靠性、成熟度和應用的邊界,要進行更嚴謹的研究和探討”。

  AI倫理仍在探索實踐中

  所謂AI倫理,一般來說是指人們對如何規范、合理地開發AI技術、使用AI產品,以及如何應對人機交互過程中可能出現的社會問題的一種態度和價值觀。具體來說包括AI的接受度、公平意識、安全意識以及道德等。圍繞AI倫理的熱點研究領域包括算法歧視、數據隱私、安全與責任、機器人與人的關系、科技貧困等。

  復旦大學應用倫理研究中心教授楊慶峰在《從人工智能難題反思AI倫理原則》一文中指出,深度學習及其不可解釋性成為AI帶來的技術難題,特別是在圖像、文本處理上,因“不透明的技術黑箱狀態”,很難解釋模型到底學習到了什么。在醫療等一些行業領域應用中,我們需要更高的可解釋性和透明性,解釋機器決策和預測的過程,以證實其可靠性,這意味著需要理解算法的機制。不幸的是,深度學習的“黑箱”本質并沒有被解決。

  記者觀察到,無論是國家監管層面,還是企業方面,近年來持續在探索實踐AI倫理及應用的邊界。2021年,我國《數據安全法》《個人信息保護法》分別于9月、11月正式施行,與《網絡安全法》共同組成了數據治理法律領域的“基本法”,幾乎同一時間段里,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》,提出了六項基本要求,為從事人工智能相關活動的主體提供了指引。金融服務、無人駕駛、人臉識別等領域的法律新規也密集出爐,而今年3月1日起,《互聯網信息服務算法推薦管理規定》施行。得益于這些法律法規體系的構建,公眾高度關注的過度采集與分析人臉信息、大數據殺熟、信息繭房等弊病正在得到緩解。2022年3月20日,中共中央辦公廳、國務院辦公廳印發了《關于加強科技倫理治理的意見》,明確了開展科技活動應用遵循的五項科技倫理原則——增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明,這是我國國家層面科技倫理治理的第一個指導性文件。

  近幾年來,國內外科技企業也紛紛提出或確立了自身的AI倫理原則,如谷歌于2018年6月提出AI應用的七項原則,包括對社會有益、避免制造或加強不公平偏見、對人負責、納入隱私計算等。而同年5月,百度創始人李彥宏公開提出了AI倫理四原則——AI的最高原則是安全可控,AI的創新愿景是促進人類更平等地獲取技術和能力,AI存在的價值是教人學習、讓人成長,而非超越人、替代人,AI的終極理想是為人類帶來更多的自由與可能。

  深度科技研究院院長張孝榮指出,AI技術是一把雙刃劍,用得好可以改善社會生活質量;用得不好,會大大影響人們的社會生活。未來需要進一步加強AI技術的應用管理,必須要將之納入法律和道德倫理的軌道上運行。

股民福利來了!十大金股送給你,帶你掘金“黃金坑”!點擊查看>>
海量資訊、精準解讀,盡在新浪財經APP

責任編輯:李桐

人氣榜
跟牛人買牛股 入群討論
今日熱度
問股榜
立即問股
今日診股
產品入口: 新浪財經APP-股票-免費問股
產品入口: 新浪財經APP-股票-免費問股
產品入口: 新浪財經APP-股票-免費問股

APP專享直播

1/10

熱門推薦

收起
新浪財經公眾號
新浪財經公眾號

24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)

7X24小時

  • 06-22 超卓航科 688237 --
  • 06-22 盛幫股份 301233 --
  • 06-21 聯合精密 001268 --
  • 06-21 福元醫藥 601089 --
  • 06-20 普瑞眼科 301239 33.65
  • 產品入口: 新浪財經APP-股票-免費問股
    新浪首頁 語音播報 相關新聞 返回頂部