韓國(guó)N號(hào)房卷土重來(lái),!這一次是Deepfake、波及超200所學(xué)校

韓國(guó)N號(hào)房卷土重來(lái),!這一次是Deepfake、波及超200所學(xué)校
2024年08月30日 14:11 快科技

Deepfake(深度偽造),再度深陷輿論的風(fēng)波。

這一次,用這項(xiàng)AI技術(shù)犯罪的嚴(yán)重程度被網(wǎng)友直呼是“韓國(guó)N號(hào)房2.0”,魔爪甚至伸向了眾多未成年人!

事件影響之大,直接沖上了各大熱搜、熱榜。

早在今年5月,《韓聯(lián)社》便通報(bào)過(guò)一則消息,內(nèi)容是:

首爾大學(xué)畢業(yè)生樸某和姜某,從2021年7月至2024年4月,涉嫌利用Deepfake換臉合成色情照片和視頻,并在通信軟件Telegram上私密傳播,受害女性多達(dá)61人,包括12名首爾大學(xué)學(xué)生。

僅是這位樸某便用Deepfake合成了大約400個(gè)色情視頻和照片,并與同伙一起分發(fā)了1700個(gè)露骨的內(nèi)容。

然而,這件事情還是Deepfake在韓國(guó)泛濫的冰山一角。

就在最近,與之相關(guān)的更多細(xì)思極恐的內(nèi)幕被陸續(xù)扒了出來(lái)。

例如韓國(guó)婦女人權(quán)研究所公布了一組數(shù)據(jù):

從今年1月1日到上周日,共有781名Deepfake受害者在線求助,其中288名(36.9%)是未成年人。

而這個(gè)“N號(hào)房2.0”也是非常恐怖的存在。

據(jù)《阿里郎》進(jìn)一步的報(bào)道:

一個(gè)與Deepfake相關(guān)的Telegram聊天室,竟吸引了220000人,他們通過(guò)篡改婦女和女孩的照片來(lái)創(chuàng)建和分享偽造的圖像,受害者包括大學(xué)生、教師,甚至是軍人。

不僅是受害者有未成年人,甚至加害者也有大量的青少年。

不僅如此,這次輿論的興起過(guò)程也是非常的drama。

因?yàn)檎厥碌捻n國(guó)男性們(以下簡(jiǎn)稱(chēng)韓男)可以說(shuō)是非常的猖獗,有輿論苗頭的時(shí)候,他們就會(huì)稍微“克制”一下:

有些韓男對(duì)這件事的態(tài)度也是較為惡劣,甚至有初中男生開(kāi)公開(kāi)寫(xiě)到“不用擔(dān)心,你不夠漂亮,不至于被Deepfake”這種話。

于是乎,韓國(guó)女性們(以下簡(jiǎn)稱(chēng)韓女)的反擊開(kāi)始了。

她們將“陣地”轉(zhuǎn)向韓國(guó)之外的社交媒體,例如在X上,有人發(fā)布了制作Deepfake學(xué)校的地圖:

還有韓女在微博中發(fā)布“求救貼”:

隨著輿論在各大社交媒體上發(fā)酵,韓國(guó)政府也出面做出了表態(tài):

目前已經(jīng)有超過(guò)200個(gè)學(xué)校收到Deepfake影響;計(jì)劃將Deepfake犯罪的刑期從5年提高到7年。

據(jù)了解,韓國(guó)警方已成立特別工作組,專(zhuān)門(mén)應(yīng)對(duì)深度偽造性犯罪等虛假視頻案件,該工作組將運(yùn)行到明年3月31日。

Deepfake已逐漸進(jìn)化

事實(shí)上,最新Deepfake技術(shù)已經(jīng)進(jìn)化到了“恐怖”階段!

生圖AI Flux以一組真假難分的TED演講照片,引千萬(wàn)??(前推特)網(wǎng)友在線打假。(左邊由AI生成)

深夜直播的“馬斯克”,也吸引了上萬(wàn)群眾圍觀打賞,甚至搞起了網(wǎng)友連麥。

要知道,整場(chǎng)直播僅用一張圖片就能實(shí)現(xiàn)實(shí)時(shí)換臉。

這一切果真如網(wǎng)友所言,Deepfake已將科幻照進(jìn)現(xiàn)實(shí)。

其實(shí),Deepfake一詞最早起源于2017年,當(dāng)時(shí)一名Reddit用戶(hù)“Deepfakes”將色情女演員的面部替換成了一些美國(guó)知名演員,引起一片爭(zhēng)議。

而這項(xiàng)技術(shù)可以追溯到2014年,Goodfellow與同事發(fā)表了全球首篇介紹GAN的科學(xué)論文。

當(dāng)時(shí)就有跡象表明,GAN有望生成仿真度極高的人臉。

后來(lái)隨著深度學(xué)習(xí)技術(shù)的發(fā)展,自動(dòng)編碼器、生成對(duì)抗網(wǎng)絡(luò)等技術(shù)逐漸被應(yīng)用到Deepfake中。

簡(jiǎn)單介紹下Deepfake背后的技術(shù)原理。

比如偽造一個(gè)視頻。

其核心原理是利用深度學(xué)習(xí)算法將目標(biāo)對(duì)象的面部“嫁接”到被模仿對(duì)象上。

由于視頻是連續(xù)的圖片組成,因此只需要把每一張圖片中的臉替換,就能得到變臉的新視頻。

這里要用到自動(dòng)編碼器,在應(yīng)用于Deepfake的情況下輸入視頻幀,并編碼。

△圖源:維基百科△圖源:維基百科

它們由編碼器和解碼器組成,編碼器將圖像減少到較低維的潛空間,解碼器從潛表征中重建圖像。

簡(jiǎn)單說(shuō),編碼器將一些關(guān)鍵特征信息(如面部特征、身體姿勢(shì))轉(zhuǎn)換成低維的潛在空間表示,而解碼器將圖像從潛在表示中恢復(fù)出來(lái),用于給網(wǎng)絡(luò)學(xué)習(xí)。

再比如偽造圖像。

這里主要用到生成對(duì)抗網(wǎng)絡(luò)(Gan),它是非監(jiān)督式學(xué)習(xí)的一種方法,通過(guò)讓兩個(gè)神經(jīng)網(wǎng)絡(luò)相互博弈的方式進(jìn)行學(xué)習(xí)。(此方法也可以用于偽造視頻)

第一個(gè)算法稱(chēng)為生成器,輸入隨機(jī)噪聲并將其轉(zhuǎn)換為圖像。

然后,該合成圖像被添加到真實(shí)圖像流(例如名人圖像)中,這些圖像被輸入到第二個(gè)算法(稱(chēng)為判別器)中。

判別器試圖區(qū)分樣本來(lái)源于真實(shí)還是合成,每次注意到二者之間的差異時(shí),生成器都會(huì)隨之調(diào)整,直至最終再現(xiàn)真實(shí)圖像,使判別器無(wú)法再區(qū)分。

然而,除了讓外觀上看起來(lái)無(wú)法區(qū)分,當(dāng)前的Deepfake正在施展“組合拳”

聲音克隆也升級(jí)了。現(xiàn)在,隨便找一個(gè)AI工具,只需提供幾秒原音,就能立馬copy你的聲音。

用合成聲音偽造名人的事件也層出不窮。

此外,1張圖生成視頻已不再新奇,而且目前的工作重點(diǎn)在于后續(xù)打磨,比如讓表情、姿勢(shì)看起來(lái)更自然。

其中就有一項(xiàng)唇形同步技術(shù)(Lip syncing),比如讓小李子開(kāi)口說(shuō)話。

如何識(shí)別Deepfake?

雖然Deepfake現(xiàn)在已經(jīng)很逼真了,但下面還是給大家介紹一些識(shí)別技巧。

目前網(wǎng)絡(luò)上大家討論的各種方法,歸納起來(lái)就是:

不尋常或?qū)擂蔚拿娌孔藙?shì)

不自然的身體運(yùn)動(dòng)(肢體畸變)

著色不自然

音頻不一致

不眨眼的人

皮膚的衰老與頭發(fā)和眼睛的衰老并不相符

眼鏡要么沒(méi)有眩光,要么有太多眩光,并且無(wú)論人如何移動(dòng),眩光角度都保持不變。

放大后看起來(lái)很奇怪的視頻

……

得,列文虎克看了直呼內(nèi)行,不過(guò)單憑肉眼觀察著實(shí)有點(diǎn)費(fèi)人了!

更高效的方法還得是,用魔法打敗魔法——用AI檢測(cè)AI

國(guó)內(nèi)外知名科技企業(yè)均有相關(guān)動(dòng)作,比如微軟就開(kāi)發(fā)了一種身份驗(yàn)證工具,可以分析照片或視頻,并對(duì)其是否被操縱給出評(píng)分。

OpenAI此前也宣布推出一款工具,用于檢測(cè)由AI圖像生成器DALL-E 3創(chuàng)建的圖像。

在內(nèi)部測(cè)試中,該工具在98%的時(shí)間內(nèi)正確識(shí)別了DALL-E 3生成的圖像,并且能以最小的影響處理常見(jiàn)修改,如壓縮、裁剪和飽和度變化。

芯片制造商英特爾的FakeCatcher則使用算法分析圖像像素來(lái)確定真假。

而在國(guó)內(nèi),商湯數(shù)字水印技術(shù)可將特定信息嵌入到多模態(tài)的數(shù)字載體中,支持圖像、視頻、音頻、文本等多模態(tài)數(shù)字載體。官方稱(chēng)這種技術(shù)能保證超過(guò)99%的水印提取精度,且不會(huì)損失畫(huà)質(zhì)精度。

當(dāng)然了,量子位此前也介紹過(guò)一種很火的識(shí)別AI生圖的方法——調(diào)整飽和度檢查人物牙齒。

飽和度拉滿下,AI人像的牙齒就會(huì)變得非常詭異,邊界模糊不清。

Science發(fā)文:需要標(biāo)準(zhǔn)和檢測(cè)工具

就在昨天,Science也發(fā)表了一篇文章對(duì)Deepfake進(jìn)行了探討。

這篇文章認(rèn)為,Deepfake所帶來(lái)的挑戰(zhàn)是科學(xué)研究的完整性——科學(xué)需要信任。

具體而言,就是由于Deepfake逼真的造假、以及難以檢測(cè)等原因,進(jìn)一步威脅到對(duì)科學(xué)的信任。

而面對(duì)這一挑戰(zhàn),Science認(rèn)為應(yīng)當(dāng)“兩手抓”,一是使用Deepfake的技術(shù)道德標(biāo)準(zhǔn),二是開(kāi)發(fā)精準(zhǔn)的檢測(cè)工具。

在談及Deepfake與教育發(fā)展的關(guān)系時(shí),文章認(rèn)為:

盡管Deepfake對(duì)科學(xué)研究和交流的完整性構(gòu)成重大風(fēng)險(xiǎn),但它們也為教育提供了機(jī)會(huì)。

Deepfake的未來(lái)影響將取決于科學(xué)和教育界如何應(yīng)對(duì)這些挑戰(zhàn)并利用這些機(jī)會(huì)。

有效的錯(cuò)誤信息檢測(cè)工具、健全的道德標(biāo)準(zhǔn)和基于研究的教育方法,可以幫助確保Deepfake在科學(xué)中得到增強(qiáng),而不是受到Deepfake的阻礙。

總而言之,科技道路千萬(wàn)條,安全第一條。

One More Thing

當(dāng)我們讓ChatGPT翻譯相關(guān)事件的內(nèi)容時(shí),它的反應(yīng)是這樣:

嗯,AI看了都覺(jué)得不妥。

參考鏈接:

[1]https://en.yna.co.kr/view/AEN20240826009600315

[2]https://en.yna.co.kr/view/AEN20240828003100315?input=2106m

[3]https://en.yna.co.kr/view/AEN20240829002853315?input=2106m

[4]https://www.arirang.com/news/view?id=275393&lang=en

[5]https://www.science.org/doi/10.1126/science.adr8354

[6]https://weibo.com/7865529830/OupjZgcxF

[7]https://weibo.com/7929939511/Out1p5HOQ

圖像韓國(guó)
新浪科技公眾號(hào)
新浪科技公眾號(hào)

“掌”握科技鮮聞 (微信搜索techsina或掃描左側(cè)二維碼關(guān)注)

創(chuàng)事記

科學(xué)探索

科學(xué)大家

蘋(píng)果匯

眾測(cè)

專(zhuān)題

官方微博

新浪科技 新浪數(shù)碼 新浪手機(jī) 科學(xué)探索 蘋(píng)果匯 新浪眾測(cè)

公眾號(hào)

新浪科技

新浪科技為你帶來(lái)最新鮮的科技資訊

蘋(píng)果匯

蘋(píng)果匯為你帶來(lái)最新鮮的蘋(píng)果產(chǎn)品新聞

新浪眾測(cè)

新酷產(chǎn)品第一時(shí)間免費(fèi)試玩

新浪探索

提供最新的科學(xué)家新聞,精彩的震撼圖片