Deepfake(深度偽造),再度深陷輿論的風(fēng)波。
這一次,用這項(xiàng)AI技術(shù)犯罪的嚴(yán)重程度被網(wǎng)友直呼是“韓國(guó)N號(hào)房2.0”,魔爪甚至伸向了眾多未成年人!
事件影響之大,直接沖上了各大熱搜、熱榜。
早在今年5月,《韓聯(lián)社》便通報(bào)過(guò)一則消息,內(nèi)容是:
首爾大學(xué)畢業(yè)生樸某和姜某,從2021年7月至2024年4月,涉嫌利用Deepfake換臉合成色情照片和視頻,并在通信軟件Telegram上私密傳播,受害女性多達(dá)61人,包括12名首爾大學(xué)學(xué)生。
僅是這位樸某便用Deepfake合成了大約400個(gè)色情視頻和照片,并與同伙一起分發(fā)了1700個(gè)露骨的內(nèi)容。
然而,這件事情還是Deepfake在韓國(guó)泛濫的冰山一角。
就在最近,與之相關(guān)的更多細(xì)思極恐的內(nèi)幕被陸續(xù)扒了出來(lái)。
例如韓國(guó)婦女人權(quán)研究所公布了一組數(shù)據(jù):
從今年1月1日到上周日,共有781名Deepfake受害者在線求助,其中288名(36.9%)是未成年人。
而這個(gè)“N號(hào)房2.0”也是非常恐怖的存在。
據(jù)《阿里郎》進(jìn)一步的報(bào)道:
一個(gè)與Deepfake相關(guān)的Telegram聊天室,竟吸引了220000人,他們通過(guò)篡改婦女和女孩的照片來(lái)創(chuàng)建和分享偽造的圖像,受害者包括大學(xué)生、教師,甚至是軍人。
不僅是受害者有未成年人,甚至加害者也有大量的青少年。
不僅如此,這次輿論的興起過(guò)程也是非常的drama。
因?yàn)檎厥碌捻n國(guó)男性們(以下簡(jiǎn)稱(chēng)韓男)可以說(shuō)是非常的猖獗,有輿論苗頭的時(shí)候,他們就會(huì)稍微“克制”一下:
有些韓男對(duì)這件事的態(tài)度也是較為惡劣,甚至有初中男生開(kāi)公開(kāi)寫(xiě)到“不用擔(dān)心,你不夠漂亮,不至于被Deepfake”這種話。
于是乎,韓國(guó)女性們(以下簡(jiǎn)稱(chēng)韓女)的反擊開(kāi)始了。
她們將“陣地”轉(zhuǎn)向韓國(guó)之外的社交媒體,例如在X上,有人發(fā)布了制作Deepfake學(xué)校的地圖:
還有韓女在微博中發(fā)布“求救貼”:
隨著輿論在各大社交媒體上發(fā)酵,韓國(guó)政府也出面做出了表態(tài):
目前已經(jīng)有超過(guò)200個(gè)學(xué)校收到Deepfake影響;計(jì)劃將Deepfake犯罪的刑期從5年提高到7年。
據(jù)了解,韓國(guó)警方已成立特別工作組,專(zhuān)門(mén)應(yīng)對(duì)深度偽造性犯罪等虛假視頻案件,該工作組將運(yùn)行到明年3月31日。
Deepfake已逐漸進(jìn)化
事實(shí)上,最新Deepfake技術(shù)已經(jīng)進(jìn)化到了“恐怖”階段!
生圖AI Flux以一組真假難分的TED演講照片,引千萬(wàn)??(前推特)網(wǎng)友在線打假。(左邊由AI生成)
深夜直播的“馬斯克”,也吸引了上萬(wàn)群眾圍觀打賞,甚至搞起了網(wǎng)友連麥。
要知道,整場(chǎng)直播僅用一張圖片就能實(shí)現(xiàn)實(shí)時(shí)換臉。
這一切果真如網(wǎng)友所言,Deepfake已將科幻照進(jìn)現(xiàn)實(shí)。
其實(shí),Deepfake一詞最早起源于2017年,當(dāng)時(shí)一名Reddit用戶(hù)“Deepfakes”將色情女演員的面部替換成了一些美國(guó)知名演員,引起一片爭(zhēng)議。
而這項(xiàng)技術(shù)可以追溯到2014年,Goodfellow與同事發(fā)表了全球首篇介紹GAN的科學(xué)論文。
當(dāng)時(shí)就有跡象表明,GAN有望生成仿真度極高的人臉。
后來(lái)隨著深度學(xué)習(xí)技術(shù)的發(fā)展,自動(dòng)編碼器、生成對(duì)抗網(wǎng)絡(luò)等技術(shù)逐漸被應(yīng)用到Deepfake中。
簡(jiǎn)單介紹下Deepfake背后的技術(shù)原理。
比如偽造一個(gè)視頻。
其核心原理是利用深度學(xué)習(xí)算法將目標(biāo)對(duì)象的面部“嫁接”到被模仿對(duì)象上。
由于視頻是連續(xù)的圖片組成,因此只需要把每一張圖片中的臉替換,就能得到變臉的新視頻。
這里要用到自動(dòng)編碼器,在應(yīng)用于Deepfake的情況下輸入視頻幀,并編碼。
它們由編碼器和解碼器組成,編碼器將圖像減少到較低維的潛空間,解碼器從潛表征中重建圖像。
簡(jiǎn)單說(shuō),編碼器將一些關(guān)鍵特征信息(如面部特征、身體姿勢(shì))轉(zhuǎn)換成低維的潛在空間表示,而解碼器將圖像從潛在表示中恢復(fù)出來(lái),用于給網(wǎng)絡(luò)學(xué)習(xí)。
再比如偽造圖像。
這里主要用到生成對(duì)抗網(wǎng)絡(luò)(Gan),它是非監(jiān)督式學(xué)習(xí)的一種方法,通過(guò)讓兩個(gè)神經(jīng)網(wǎng)絡(luò)相互博弈的方式進(jìn)行學(xué)習(xí)。(此方法也可以用于偽造視頻)
第一個(gè)算法稱(chēng)為生成器,輸入隨機(jī)噪聲并將其轉(zhuǎn)換為圖像。
然后,該合成圖像被添加到真實(shí)圖像流(例如名人圖像)中,這些圖像被輸入到第二個(gè)算法(稱(chēng)為判別器)中。
判別器試圖區(qū)分樣本來(lái)源于真實(shí)還是合成,每次注意到二者之間的差異時(shí),生成器都會(huì)隨之調(diào)整,直至最終再現(xiàn)真實(shí)圖像,使判別器無(wú)法再區(qū)分。
然而,除了讓外觀上看起來(lái)無(wú)法區(qū)分,當(dāng)前的Deepfake正在施展“組合拳”。
聲音克隆也升級(jí)了。現(xiàn)在,隨便找一個(gè)AI工具,只需提供幾秒原音,就能立馬copy你的聲音。
用合成聲音偽造名人的事件也層出不窮。
此外,1張圖生成視頻已不再新奇,而且目前的工作重點(diǎn)在于后續(xù)打磨,比如讓表情、姿勢(shì)看起來(lái)更自然。
其中就有一項(xiàng)唇形同步技術(shù)(Lip syncing),比如讓小李子開(kāi)口說(shuō)話。
如何識(shí)別Deepfake?
雖然Deepfake現(xiàn)在已經(jīng)很逼真了,但下面還是給大家介紹一些識(shí)別技巧。
目前網(wǎng)絡(luò)上大家討論的各種方法,歸納起來(lái)就是:
不尋常或?qū)擂蔚拿娌孔藙?shì)
不自然的身體運(yùn)動(dòng)(肢體畸變)
著色不自然
音頻不一致
不眨眼的人
皮膚的衰老與頭發(fā)和眼睛的衰老并不相符
眼鏡要么沒(méi)有眩光,要么有太多眩光,并且無(wú)論人如何移動(dòng),眩光角度都保持不變。
放大后看起來(lái)很奇怪的視頻
……
得,列文虎克看了直呼內(nèi)行,不過(guò)單憑肉眼觀察著實(shí)有點(diǎn)費(fèi)人了!
更高效的方法還得是,用魔法打敗魔法——用AI檢測(cè)AI。
國(guó)內(nèi)外知名科技企業(yè)均有相關(guān)動(dòng)作,比如微軟就開(kāi)發(fā)了一種身份驗(yàn)證工具,可以分析照片或視頻,并對(duì)其是否被操縱給出評(píng)分。
OpenAI此前也宣布推出一款工具,用于檢測(cè)由AI圖像生成器DALL-E 3創(chuàng)建的圖像。
在內(nèi)部測(cè)試中,該工具在98%的時(shí)間內(nèi)正確識(shí)別了DALL-E 3生成的圖像,并且能以最小的影響處理常見(jiàn)修改,如壓縮、裁剪和飽和度變化。
芯片制造商英特爾的FakeCatcher則使用算法分析圖像像素來(lái)確定真假。
而在國(guó)內(nèi),商湯數(shù)字水印技術(shù)可將特定信息嵌入到多模態(tài)的數(shù)字載體中,支持圖像、視頻、音頻、文本等多模態(tài)數(shù)字載體。官方稱(chēng)這種技術(shù)能保證超過(guò)99%的水印提取精度,且不會(huì)損失畫(huà)質(zhì)精度。
當(dāng)然了,量子位此前也介紹過(guò)一種很火的識(shí)別AI生圖的方法——調(diào)整飽和度檢查人物牙齒。
飽和度拉滿下,AI人像的牙齒就會(huì)變得非常詭異,邊界模糊不清。
Science發(fā)文:需要標(biāo)準(zhǔn)和檢測(cè)工具
就在昨天,Science也發(fā)表了一篇文章對(duì)Deepfake進(jìn)行了探討。
這篇文章認(rèn)為,Deepfake所帶來(lái)的挑戰(zhàn)是科學(xué)研究的完整性——科學(xué)需要信任。
具體而言,就是由于Deepfake逼真的造假、以及難以檢測(cè)等原因,進(jìn)一步威脅到對(duì)科學(xué)的信任。
而面對(duì)這一挑戰(zhàn),Science認(rèn)為應(yīng)當(dāng)“兩手抓”,一是使用Deepfake的技術(shù)道德標(biāo)準(zhǔn),二是開(kāi)發(fā)精準(zhǔn)的檢測(cè)工具。
在談及Deepfake與教育發(fā)展的關(guān)系時(shí),文章認(rèn)為:
盡管Deepfake對(duì)科學(xué)研究和交流的完整性構(gòu)成重大風(fēng)險(xiǎn),但它們也為教育提供了機(jī)會(huì)。
Deepfake的未來(lái)影響將取決于科學(xué)和教育界如何應(yīng)對(duì)這些挑戰(zhàn)并利用這些機(jī)會(huì)。
有效的錯(cuò)誤信息檢測(cè)工具、健全的道德標(biāo)準(zhǔn)和基于研究的教育方法,可以幫助確保Deepfake在科學(xué)中得到增強(qiáng),而不是受到Deepfake的阻礙。
總而言之,科技道路千萬(wàn)條,安全第一條。
One More Thing
當(dāng)我們讓ChatGPT翻譯相關(guān)事件的內(nèi)容時(shí),它的反應(yīng)是這樣:
嗯,AI看了都覺(jué)得不妥。
參考鏈接:
[1]https://en.yna.co.kr/view/AEN20240826009600315
[2]https://en.yna.co.kr/view/AEN20240828003100315?input=2106m
[3]https://en.yna.co.kr/view/AEN20240829002853315?input=2106m
[4]https://www.arirang.com/news/view?id=275393&lang=en
[5]https://www.science.org/doi/10.1126/science.adr8354
[6]https://weibo.com/7865529830/OupjZgcxF
[7]https://weibo.com/7929939511/Out1p5HOQ
“掌”握科技鮮聞 (微信搜索techsina或掃描左側(cè)二維碼關(guān)注)
公眾號(hào)
新浪科技
新浪科技為你帶來(lái)最新鮮的科技資訊
蘋(píng)果匯
蘋(píng)果匯為你帶來(lái)最新鮮的蘋(píng)果產(chǎn)品新聞
新浪眾測(cè)
新酷產(chǎn)品第一時(shí)間免費(fèi)試玩
新浪探索
提供最新的科學(xué)家新聞,精彩的震撼圖片