作者: 高雅
[ 最近美國參議院對OpenAI首席執(zhí)行官阿爾特曼(Sam Altman)的聽證會就是如此。他們知道,如果沒有監(jiān)管,人們將不信任技術,就有可能失去創(chuàng)新和進步。監(jiān)管并不反創(chuàng)新,監(jiān)管也可以支持創(chuàng)新,理解這一點非常重要。 ]
自ChatGPT推向市場,人工智能(AI)能做什么,以及能做到什么地步,這些突破既使人們驚嘆,也引發(fā)了人們的擔憂。
從對個人數據的囤積和信息泄露,到詐騙,再到損害企業(yè)競爭,這些風險的威脅讓各方提高了警惕。近一個月來,從七國集團會議領導人到科技公司首席執(zhí)行官,都呼吁為人工智能(AI)技術制定國際標準和更強力的法規(guī)。
帶著這些問題,第一財經記者專訪了歐洲工商管理學院(INSAED)的決策科學和技術管理教授埃夫根尼奧(Theos Evgeniou)。
第一財經:為什么隨著ChatGPT等生成性AI的普及,AI監(jiān)管的重要性更突出了?
埃夫根尼奧:我們要意識到三點。第一,生成性AI有多強大。我認為幾乎所有人,包括生成性AI的開發(fā)者,都沒有預想到它們的能力。
第二,生成性AI的行為方式如何?,F在有一些關于突現行為(emergent behavior)的討論。這種行為可能比預期更有影響。而且,生成性AI涉及人類語言和人類身份。而人類語言是幫助我們定義“我們是誰”和“我們做什么”的重要部分。因此,如果技術可以模仿那些能夠定義人類身份認同的東西,就帶來了新潛在風險和新可能性。
第三,像ChatGPT這樣的生成性AI技術是所謂“根基模型”(foundation models)。人們可以在這種模型的基礎上開發(fā)大量產品,并能夠進行微調。換言之,它們不是單純的產品,而是核心技術,是人們可以開發(fā)的產品之核心所在。這種核心技術本身已經非常強大,我們甚至無法預測人們將依靠它們開發(fā)出什么。我們也從未仔細考慮過如何管控和規(guī)范根基模型。這是一種新概念。
第一財經:意大利等國禁用了ChatGPT,當我們擔憂AI帶來的風險時,我們到底在擔心什么?
埃夫根尼奧:有些國家或企業(yè)會禁用這些技術,可能是因為有潛在的風險,比如能泄露重要知識和信息,也可能因為很難控制這種AI能帶來什么。
例如,據報道,前幾個月,韓國三星公司的工程師通過ChatGPT上傳了代碼,最后可能泄露了一些涉及公司知識產權的信息。因此,AI的使用存在知識產權和隱私風險,這是技術開發(fā)者禁用或限制使用它的原因之一。
另一方面,一些國家禁用它可能是因為存在政治或健康風險,這可能關乎人們的國家認同。具體來說,這些生成性模型有點像“特洛伊木馬”。基本上,ChatGPT在某種程度上濃縮了全球互聯(lián)網。因此,如果針對一個特定的網站,禁止訪問它很容易,但有了ChatGPT,你無法知道這些網站的內容是否從中暴露。
所以,無論是開發(fā)商還是消費者,無論是企業(yè)還是國家,都有理由限制這些技術的使用。我們面對的是一種新的傳輸信息的方式,當你不知道到底會發(fā)生什么,要控制它就更難了。
第一財經:近期,我們看到了一些AI詐騙的現象,例如模擬名人或熟悉的人的聲音進行電話詐騙。我們應該如何監(jiān)管這種行為?
埃夫根尼奧:首先,這些技術本身可以被應用于一些有價值的創(chuàng)造,改善人們的信息流。比如,企業(yè)可以用這種技術來優(yōu)化廣告營銷信息或開發(fā)創(chuàng)意內容。在美國大選中,也可以以此來優(yōu)化電子郵件活動。
然而,一旦這種技術越界,就可能從“銷售”或“營銷”變成“操縱”,比如通過電子郵件進行釣魚或傳播錯誤信息,甚至是對未成年的人進行誘騙。這是長期以來一直存在的東西,只是有了生成性AI后,好的和壞的方面都被放大了。
很明顯,我們需要其中一些部分進行監(jiān)管。要注意的是,我們要規(guī)范和監(jiān)管的是內容審核的過程,而非內容本身。一些國家和地區(qū)已著手制定有關內容審核的法規(guī)。例如,歐洲提出《數字服務法》(DSA),涉及規(guī)范在線平臺的內容。在我看來,這是一個很好的法規(guī),因為它帶來了一個公平和透明的內容審核程序。
總之,我們需要法規(guī)來規(guī)范如何公平和透明地審核內容,至于內容來自人還是來自人工智能,這在某種意義上并不重要。
第一財經:歐盟即將對《人工智能法案》進行投票。你認為歐盟在AI監(jiān)管上最側重什么,與美國有何不同?
埃夫根尼奧:歐美在監(jiān)管上有異同之處。從相似點來說,很多法規(guī)都是按照行業(yè)劃分的。
舉個例子,歐美航空領域的法規(guī)不會有太大區(qū)別。你在德國坐飛機或者在美國坐飛機,你應該不會詢問其法規(guī)是否不同,因為它們最終都要保障安全。對AI技術也是如此,行業(yè)內很多事情在不同地區(qū)都是相似的。
坦白說,沒有任何人完全了解AI技術到底會如何影響人類的權利。因此,這里有一個關鍵問題是,管控風險的時機——你要現在就插手控制風險,并早早地設置限制和標準?還是要等一段時間,看看AI技術的發(fā)展和應用,然后再進行監(jiān)管,出臺一些限制?
歐洲通常是前者,而美國在這方面則更有耐心。美國喜歡的方式是“不要著急,讓我們看看它會如何,我們先允許創(chuàng)新,等有問題時再去解決它”。這是因為美國在決定行動時往往也非常迅速。我們已經看到金融危機后,美國改變事情的速度有多令人驚訝。這也符合美國愿意放手觀察的做法。
第一財經:美國的治理方式對商業(yè)更友好嗎,這是否意味著反監(jiān)管的立場?
埃夫根尼奧:我不認為如此,因為商業(yè)是需要監(jiān)管的。如果人們認為產品不安全,他們就不會購買產品。 即使在市場競爭方面,商業(yè)也需要監(jiān)管。
總的來說,我認為沒有人不需要監(jiān)管。即使是科技高管也在說“監(jiān)管我們”,最近美國參議院對OpenAI首席執(zhí)行官阿爾特曼(Sam Altman)的聽證會就是如此。他們知道,如果沒有監(jiān)管,人們將不信任技術,就有可能失去創(chuàng)新和進步。監(jiān)管并不反創(chuàng)新,監(jiān)管也可以支持創(chuàng)新,理解這一點非常重要。
但另一方面,監(jiān)管的確也會減緩創(chuàng)新,當它增加了競爭難度,給一些小企業(yè)、投資和退出機制大大增加做事成本時尤其如此。例如,歐盟的《通用數據保護條例》(GDPR)導致了小企業(yè)成本驟增,其中大多是歐洲初創(chuàng)公司。這最終幫助美國大公司獲得了競爭優(yōu)勢。從這個意義上說,這一結果與歐盟的目的恰恰相反。
關鍵之處在于,我們要理解,第一,沒有完美的法規(guī);第二,做事要平衡成本,這個成本可能是小企業(yè)的競爭,或是終端消費者的信任和安全。當你必須平衡各個因素,你無法一次得到最優(yōu)解。你只能從某個地方著手,然后不斷迭代更新、迅速響應?!斑呑哌厡W”才是最重要的。
第一財經:但嚴格的監(jiān)管可能會對商業(yè)和進步造成損害。我們應該如何在監(jiān)管和創(chuàng)新之間掌握好平衡?
埃夫根尼奧:首先要明白,我們不會一次就做對,我們需要時間來矯正。因此,重要的是建立好的流程和體系,以便我們快速學習和更新。我們必須盡量思考我們未來能多快地適應它,而不是一直糾結今天該怎么做。
第二,我們必須了解問題的本質。例如,監(jiān)管的成本有多高?成本不一定是金錢,也可能是可及性,比如一些公司可能因此無法獲得數據或人才。
我們必須要理解不同的行業(yè),不同的應用,或不同的背景知識,我們必須有基于AI資源的視角,了解人才、數據、計算、補充技術和資產的可用性等方面。只有掌握了這些,我們才可以就如何平衡創(chuàng)新與監(jiān)管做出更好的決定。
我們不能出于恐懼而監(jiān)管,這是不充分的,也是不正確的。它應該是一個持續(xù)學習的體系,有一個能夠快速吸收和修復的路徑。
同樣,監(jiān)管中必須有不可跨越的紅線。歐盟的《人工智能法案》中就規(guī)定了不可發(fā)展的部分,比如不可用于社會評分。
我們還必須考慮需要配套發(fā)展的生態(tài)體系,比如保險。舉例來說,如果由于人工智能而發(fā)生事故,誰來支付相應的賠償。
在監(jiān)管上,我們無法一次就做到最好,這將是一個不斷學習的過程。
責任編輯:李桐
VIP課程推薦
APP專享直播
熱門推薦
收起24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)