一條AI假視頻有多大破壞力
目前,深度偽造技術(shù)普遍還停留在較為初級(jí)、偏向娛樂的應(yīng)用階段。但對(duì)于其未來可能具備的破壞力,必須予以警惕。
文/瞭望智庫(kù)助理研究員 云賀
不久前,一個(gè)比利時(shí)政黨在臉書賬號(hào)上發(fā)布了這樣一段視頻:美國(guó)總統(tǒng)特朗普正在發(fā)表講話,指責(zé)比利時(shí)在氣候變化問題上的不作為。視頻一經(jīng)發(fā)布,批評(píng)美國(guó)肆意干涉他國(guó)內(nèi)政的言論即刻四起。
實(shí)際上,特朗普從來沒有發(fā)表過這番言論。這段引發(fā)爭(zhēng)端的視頻是由人工智能技術(shù)合成而來的深度偽造(Deepfake)作品,是一條名副其實(shí)的“假視頻”。
今年1月,針對(duì)這項(xiàng)剛剛在全球范圍內(nèi)嶄露頭角的“黑科技”,美國(guó)卡內(nèi)基國(guó)際和平研究院硅谷辦公室主任夏洛特?斯坦頓(Charlotte Stanton)發(fā)布了名為《國(guó)家如何應(yīng)對(duì)“深度偽造”?》的文章,深入探討深度偽造技術(shù)可能給未來國(guó)家政治生態(tài)和輿論走向帶來的潛在風(fēng)險(xiǎn),并為各國(guó)相關(guān)部門提出了應(yīng)對(duì)之策。
難以鑒別
一條深度偽造的假視頻是怎樣制作出來的?
簡(jiǎn)單來說,計(jì)算機(jī)會(huì)通過一系列深度學(xué)習(xí)和算法技術(shù),把一個(gè)人的言行舉止“覆蓋”在另一個(gè)人身上,最后生成一段合成而來、以假亂真的視頻。而且,按照機(jī)器學(xué)習(xí)的規(guī)律,計(jì)算機(jī)接觸和學(xué)習(xí)的音視頻文件越多,最后生成的視頻效果就越逼真。
其實(shí),類似的合成視頻技術(shù)其實(shí)很早就有,只不過需要具備一定特效專業(yè)基礎(chǔ)的人員才能完成??▋?nèi)基的文章提出,人工智能、深度學(xué)習(xí)等新興技術(shù)的出現(xiàn),不僅讓深度偽造的應(yīng)用門檻大大降低,也讓防偽、鑒偽工作變得極為困難。
夏洛特?斯坦頓表示,就算一個(gè)人并不了解人工智能或深度學(xué)習(xí)算法背后的復(fù)雜原理,也不妨礙他/她登錄進(jìn)入一些界面友好、操作簡(jiǎn)便的應(yīng)用程序,輕松地偽造一條視頻。
更麻煩的是,“深度偽造”作品還很難被識(shí)破。這些視頻一般不存在明顯的技術(shù)瑕疵,只能通過一些極細(xì)小的線索鑒別真?zhèn)?,諸如目標(biāo)人物的呼吸方式、眨眼頻率等。例如,一個(gè)人在說話時(shí)的眨眼頻率比靜止時(shí)要稍快一些,而這是深度偽造作品往往會(huì)忽略的細(xì)節(jié)。
“騙術(shù)紅利”
截至目前,深度偽造還沒有在全球范圍內(nèi)造成極其嚴(yán)重的后果,該技術(shù)普遍還停留在較為初級(jí)、偏向娛樂的應(yīng)用階段。但按照技術(shù)的發(fā)展行進(jìn)軌跡來看,對(duì)于未來深度偽造可能具備的破壞力,必須予以高度警惕。
夏洛特?斯坦頓認(rèn)為,深度偽造的破壞力主要表現(xiàn)在兩方面。一方面,假視頻本身會(huì)造成輿論的混亂,干擾社會(huì)良序和經(jīng)濟(jì)穩(wěn)定。
比如,偽造關(guān)鍵政治人物的言論視頻可能會(huì)制造政治混亂和改變輿論風(fēng)向,并在選舉、民意、外交等領(lǐng)域產(chǎn)生不可預(yù)估的惡劣影響。而在商業(yè)領(lǐng)域,偽造上市公司領(lǐng)軍人物的發(fā)言則會(huì)嚴(yán)重干擾股市走向,引發(fā)經(jīng)濟(jì)動(dòng)蕩。
另一方面,假視頻的泛濫還會(huì)拖累真視頻的可信度,直至讓民眾陷入“質(zhì)疑一切”的怪圈,從而大大削弱政府、組織、企業(yè)和的公信力。
美國(guó)兩位法學(xué)界的教授羅伯特?切斯尼(Robert Chesney)和丹尼爾?席特倫(Danielle Citron)曾在2018年7月發(fā)表的一篇學(xué)術(shù)論文中將上述現(xiàn)象稱為“騙術(shù)的紅利”,即公眾對(duì)深度偽造技術(shù)和產(chǎn)品了解得越多,對(duì)于事實(shí)真相的懷疑程度就越高,直到“真的也變成了假的”。
雖然“深度偽造”破壞力巨大,但夏洛特?斯坦頓在文中也提示道,它并非全無可取之處。
美國(guó)漸凍人協(xié)會(huì)(ALS Association)就曾聯(lián)合加拿大一家名為琴鳥(Lyrebird)的初創(chuàng)公司開發(fā)出一套聲音模擬系統(tǒng)。這套系統(tǒng)可以在早期收錄和學(xué)習(xí)漸凍癥患者本身的聲音,以備在患者不能自主發(fā)聲的時(shí)候,由系統(tǒng)自動(dòng)生成電子音頻,提高患者與外界交流的舒適度。
如何應(yīng)對(duì)?
為了應(yīng)對(duì)包括深度偽造在內(nèi)的各類信息偽造技術(shù)的潛在風(fēng)險(xiǎn),各國(guó)政府已紛紛著手準(zhǔn)備。其中,歐盟的力度最大、進(jìn)度最快。
2018年9月,歐盟主要的網(wǎng)絡(luò)平臺(tái)、社交媒體巨頭、廣告主和廣告經(jīng)營(yíng)者代表等在布魯塞爾發(fā)布了《反虛假信息行為準(zhǔn)則》(Code of Practice on Disinformation),用以規(guī)范解決近年來歐盟地區(qū)網(wǎng)絡(luò)虛假信息泛濫的問題。
該文件不僅呼吁歐盟組建一個(gè)獨(dú)立的“網(wǎng)絡(luò)事實(shí)審查部門”,還特別強(qiáng)調(diào),普通民眾也要深度參與到“打假”過程中來。譬如,民眾應(yīng)在某種程度上能夠甄別信息來源、了解虛假視頻的制作過程,并能對(duì)“真假”有初步判斷。
美國(guó)一些聯(lián)邦議員也開始發(fā)聲,呼吁政府警惕深度偽造技術(shù)可能給國(guó)家安全帶來的危害。民主黨眾議員亞當(dāng)?希夫(Adam Schiff)和斯蒂芬妮?墨菲(Stephanie Murphy)等,就曾致信中央情報(bào)局局長(zhǎng)丹?科茨(Dan Coats)稱:“對(duì)于那些試圖散布虛假信息的敵對(duì)勢(shì)力而言,深度偽造技術(shù)恐怕會(huì)成為他們的一種強(qiáng)有力工具?!?/p>
卡內(nèi)基的文章總結(jié)認(rèn)為,想要應(yīng)對(duì)“深度偽造”這一“黑科技”,政府應(yīng)做好以下幾點(diǎn):
首先,要準(zhǔn)確定義對(duì)“深度偽造”技術(shù)不恰當(dāng)應(yīng)用的具體范疇。畢竟,這項(xiàng)技術(shù)本身是中立的,何況在醫(yī)療等領(lǐng)域還有極大的開發(fā)利用價(jià)值,不應(yīng)該被“一棍子打死”。
其次,政府應(yīng)該牽頭,聯(lián)合與視頻傳播相關(guān)各方,包括網(wǎng)絡(luò)平臺(tái)、監(jiān)管機(jī)構(gòu)、新聞媒體、行業(yè)組織等,建立起一個(gè)緊密合作的信息共享機(jī)制,以便能在短時(shí)間之內(nèi)發(fā)現(xiàn)并控制不良信息的傳播。
例如,2015年通過的美國(guó)網(wǎng)絡(luò)安全信息共享法案就提出了上述機(jī)制的雛形。該法案的核心是在多個(gè)網(wǎng)絡(luò)平臺(tái)之間實(shí)現(xiàn)一定程度的信息共享,一旦發(fā)現(xiàn)帶有惡意的深度偽造信息即可警示其他平臺(tái)特別是各大新聞通訊社,以防不良信息進(jìn)入主流傳播渠道。
最后,夏洛特?斯坦頓提出,政府要從現(xiàn)在開始,助力相關(guān)鑒偽防偽技術(shù)的研究開發(fā)工作??梢哉f,這是“深度偽造”技術(shù)與“鑒偽防偽”技術(shù)之間的一場(chǎng)賽跑。目前,美國(guó)國(guó)防部高級(jí)研究計(jì)劃局(DARPA)已專門設(shè)立了“媒體鑒證”項(xiàng)目,開發(fā)能識(shí)別深度偽造視頻的技術(shù)工具。
責(zé)任編輯:陳永樂
熱門推薦
收起24小時(shí)滾動(dòng)播報(bào)最新的財(cái)經(jīng)資訊和視頻,更多粉絲福利掃描二維碼關(guān)注(sinafinance)