首页 国产 亚洲 小说图片,337p人体粉嫩胞高清视频,久久精品国产72国产精,国产乱理伦片在线观看

設(shè)為書簽 Ctrl+D將本頁面保存為書簽,全面了解最新資訊,方便快捷。 您也可下載桌面快捷方式。點(diǎn)擊下載 | 新浪科技 | 新浪首頁 | 新浪導(dǎo)航

更精準(zhǔn)地生成字幕!哥大&Facebook開發(fā)AI新框架,多模態(tài)融合,性能更強(qiáng)

2021-02-14 13:11:18    創(chuàng)事記 微博 作者:   

來源:量子位

子豪 發(fā)自 凹非寺

量子位 報(bào)道 | 公眾號(hào) QbitAI

現(xiàn)在,給視頻添加字幕,又有了新玩法。

這就是Facebook、哥倫比亞大學(xué)等大學(xué)的新研究,共同開發(fā)了一個(gè)框架——Vx2Text

這個(gè)框架可以幫助我們,從視頻、音頻等輸入內(nèi)容中提取信息,再以人類可以理解的文字,生成字幕或者回答問題等。

并且,與之前的最新技術(shù)相比,Vx2Text在三個(gè)任務(wù)中均展現(xiàn)出最佳的性能。

Vx2Text究竟是什么?一起往下看。

技術(shù)原理

Vx2Text是從多模態(tài)輸入(由視頻、文本、語音或音頻組成)中提取信息,再以人類可以理解的方式,生成自然語言文本(例如:字幕、回答問題等)。

研究團(tuán)隊(duì)通過引入大型基準(zhǔn),來評(píng)估Vx2Text解釋信息和生成自然語言的能力。

這些基準(zhǔn)主要包括:用于圖像或視頻字幕、問答(QA)和視聽對(duì)話的數(shù)據(jù)集。

為了在這些基準(zhǔn)測(cè)試中表現(xiàn)出色,Vx2Text必須完成幾個(gè)目標(biāo)

從每個(gè)模態(tài)中提取重要信息;

有效地組合不同線索,以解決給定的問題;

以可理解的文本形式,將結(jié)果生成和呈現(xiàn)出來。

并且,將這些目標(biāo)嵌入一個(gè)統(tǒng)一的、端到端的可訓(xùn)練的框架中。

整個(gè)過程可以分為三步

多模態(tài)輸入及識(shí)別;

將不同模態(tài)嵌入同一語言空間;

融合多模態(tài)信息。

△Vx2Text框架圖解

具體而言:

輸入及識(shí)別

Vx2Text接收視頻、音頻和語音作為輸入。利用特定模態(tài)分類器,來識(shí)別輸入的聲音或動(dòng)作等,得到相應(yīng)類別的文本信息。

嵌入

通過可區(qū)分標(biāo)記化,將識(shí)別得到的不同模態(tài)的文本信息,嵌入同一語言空間中,以便執(zhí)行多模態(tài)融合,實(shí)現(xiàn)端到端的訓(xùn)練。

多模態(tài)融合,簡(jiǎn)單來說就是,將從文本、圖像、語音、視頻等多種形式的數(shù)據(jù)和信息,進(jìn)行轉(zhuǎn)換和融合。

先前不同模態(tài)輸入信號(hào)的組合方法,大多依賴于額外的跨模態(tài)融合模塊,繁重且計(jì)算成本高。

而使用Vx2Text,無需設(shè)計(jì)專門的跨模態(tài)網(wǎng)絡(luò)模塊,這種設(shè)計(jì)不僅簡(jiǎn)單得多,還可以帶來更好的性能。

融合

采用通用的編-解碼器語言模型,即自回歸解碼器模型,來融合多模態(tài)信息,以生成文本。

不同于以前的僅編碼器模型,這一模型具有通用性,能直接適用于“不同模態(tài)生成文本”問題,無縫處理兩種類型的任務(wù),無需為每個(gè)任務(wù)設(shè)計(jì)專門的架構(gòu)。

處理生成式任務(wù),需要通過解碼生成連貫的句子;

處理區(qū)分式任務(wù),則需將候選答案集輸入,在概率分布下,選擇最高概率的答案。

實(shí)驗(yàn)

對(duì)Vx2Text在三個(gè)任務(wù)中的有效性進(jìn)行評(píng)估:包括視頻問答、視聽場(chǎng)景感知對(duì)話和視頻字幕。

分別使用三個(gè)基準(zhǔn)數(shù)據(jù)集:TVQA、AVSD和TVC。

評(píng)估每種模態(tài)的重要性

使用不同的輸入組合,評(píng)估各個(gè)模態(tài)對(duì)基于視頻的文本生成性能的影響。結(jié)果表明:

在AVSD和TVQA數(shù)據(jù)集中,每種模態(tài)都有助于性能提升,對(duì)于AVSD尤其明顯。

在AVSD的所有指標(biāo)下,增加視頻模態(tài)的都會(huì)帶來性能提升;TVQA數(shù)據(jù)集也體現(xiàn)這種趨勢(shì)。

此外,問答的歷史記錄對(duì)AVSD的性能,也起到十分積極的作用。這表明模型在對(duì)話中,成功合并了先前問答的信息。

可區(qū)分標(biāo)記化的的有效性

將不同的模態(tài)融合機(jī)制(包括:多模態(tài)特征嵌入、凍結(jié)標(biāo)記化、可區(qū)分標(biāo)記化),在AVSD和TVQA中的性能進(jìn)行比較,得到結(jié)論:

與多模式特征嵌入相比,凍結(jié)標(biāo)記化實(shí)現(xiàn)了更好的性能。

可區(qū)分標(biāo)記化通過優(yōu)化整個(gè)端到端模型,進(jìn)一步提高了這兩項(xiàng)任務(wù)的性能,在很大程度上優(yōu)于其他方案

生成模型的優(yōu)勢(shì)

對(duì)四個(gè)模型的準(zhǔn)確性進(jìn)行評(píng)估,得到結(jié)論:

對(duì)于所有大小的訓(xùn)練集,與去掉解碼器的系統(tǒng)判別版本(Discriminative)相比,默認(rèn)的Vx2Text模型(Generative)都更準(zhǔn)確。

此外,生成模型可以使用相同的模型進(jìn)行多任務(wù)學(xué)習(xí),無需更改架構(gòu)。這樣能夠進(jìn)一步提高準(zhǔn)確性,尤其是對(duì)于小型訓(xùn)練集。

與最新技術(shù)的比較

Vx2Text(這里使用凍結(jié)標(biāo)記化,而非可區(qū)分標(biāo)記化)與最新技術(shù),在AVSD上進(jìn)行比較,得到結(jié)論:

在帶有和不帶有字幕輸入兩種情況下,Vx2Text模型都取得了最好的效果。證明了這一模態(tài)集成簡(jiǎn)單方案的有效性。

Vx2Text與最新技術(shù),在TVQA上進(jìn)行比較(數(shù)字代表Top-1準(zhǔn)確性(%)),得到結(jié)論:

在HERO利用額外的樣本進(jìn)行預(yù)訓(xùn)練的情況下,Vx2Text仍然實(shí)現(xiàn)了比HERO版本更好的性能。

Vx2Text與最新技術(shù),在TVC上進(jìn)行對(duì)比,得到結(jié)論:

在不使用額外樣本進(jìn)行預(yù)訓(xùn)練的情況下,Vx2Text展現(xiàn)出最佳的性能。

定性結(jié)論

△AVSD驗(yàn)證集上的視聽場(chǎng)景感知對(duì)話任務(wù),Vx2Text生成答案示例AVSD驗(yàn)證集上的視聽場(chǎng)景感知對(duì)話任務(wù),Vx2Text生成答案示例

△TVC驗(yàn)證集上的視頻字幕任務(wù),Vx2Text生成文本描述示例

雖然輸入內(nèi)容中包含一些文本,例如:對(duì)話歷史記錄或語音記錄,但生成的文本還包含了來自其他模態(tài)的信息。例如,上圖中模型成功地識(shí)別了動(dòng)作,例如,幫助站起來等。

實(shí)驗(yàn)表明:Vx2Text能夠在多模態(tài)輸入中,為視聽場(chǎng)景感知對(duì)話和視頻字幕,生成逼真自然的文本

Vx2Text可以用于為錄制的視頻或流媒體視頻添加字幕,以及服務(wù)YouTube和Vimeo等視頻共享平臺(tái),依靠字幕以及其他信號(hào)來改善搜索結(jié)果的相關(guān)性。

作者

論文一作藺旭東,目前是哥倫比亞大學(xué)計(jì)算機(jī)科學(xué)專業(yè)的博士生,主要研究領(lǐng)域是嵌入學(xué)習(xí)、視頻分析和生成模型,本科就讀于清華大學(xué)。這項(xiàng)研究是在其擔(dān)任Facebook AI實(shí)習(xí)生時(shí)完成的。

△藺旭東(來自其個(gè)人主頁)△藺旭東(來自其個(gè)人主頁)

想要了解更多細(xì)節(jié),可戳文末鏈接查看~

參考鏈接:

https://arxiv.org/abs/2101.12059

https://venturebeat.com/2021/02/02/researchers-Vx2Text-ai-framework-draws-inferences-from-videos-audio-and-text-to-generate-captions/

(聲明:本文僅代表作者觀點(diǎn),不代表新浪網(wǎng)立場(chǎng)。)

分享到:
保存   |   打印   |   關(guān)閉