chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用AI對(duì)抗AI——基于視頻人臉篡改的檢測(cè)

Hf1h_BigDataDig ? 來(lái)源:YXQ ? 2019-07-16 10:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

還記得權(quán)力的游戲第八季么? Jon Snow也加入了千萬(wàn)罵編劇的粉絲的陣營(yíng),并且因此向粉絲道歉。

這個(gè)視頻當(dāng)然是假的,他嘴巴的移動(dòng)方式看起來(lái)就很奇怪。

這是一個(gè)DeepFake生成的視頻,一個(gè)用來(lái)娛樂(lè)或欺騙大眾人工智能產(chǎn)物。

之前文摘菌也報(bào)道過(guò),這項(xiàng)技術(shù)的上線(xiàn)后就廣受詬病,后來(lái)又有一個(gè)小團(tuán)隊(duì)開(kāi)發(fā)出一款新的應(yīng)用DeepNude,可以一鍵實(shí)現(xiàn)脫衣,之后也因?yàn)榉错憪毫佣黄认录堋?/p>

人們對(duì)于無(wú)法分辨真假的恐懼是合理的,畢竟這種技術(shù)的出現(xiàn)將會(huì)滋生出許多想象不到的新的犯罪手段的誕生。

最近,南加州大學(xué)信息科學(xué)研究所計(jì)算機(jī)的研究人員發(fā)表一篇論文,研究通過(guò)訓(xùn)練AI尋找視頻畫(huà)面中的不一致性來(lái)檢測(cè)AI生成的假視頻,論文同時(shí)也被提交到CVPR 2019。

用AI對(duì)抗AI,來(lái)看看如何實(shí)現(xiàn)

對(duì)于偽造生成的假視頻,研究人員發(fā)現(xiàn),用于生成虛假視頻的主流AI模型(以及其他方法,如2016年的Face2Face程序),都是通過(guò)逐幀修改視頻且并不注意時(shí)間的連貫性。這會(huì)使得生成視頻中的人物移動(dòng)看起來(lái)非常笨拙,人們通常會(huì)注意到這類(lèi)奇怪的動(dòng)作。

為了實(shí)現(xiàn)找出奇怪動(dòng)作這一過(guò)程的自動(dòng)化,研究人員首先要訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)—這種人工智能程序以個(gè)人的海量視頻為基礎(chǔ),可以用來(lái)“學(xué)習(xí)”人類(lèi)在說(shuō)話(huà)時(shí)如何移動(dòng)的重要特征。

然后,研究人員使用這些參數(shù)將偽造視頻的堆疊幀輸入AI模型,以檢測(cè)視頻隨時(shí)間的不一致性。根據(jù)該論文,這種方法可以判斷“AI偽造視頻”,準(zhǔn)確率超過(guò)90%。

研究人員使用的模型是一個(gè)遞歸卷積模型(Recurrent convolutional model),這個(gè)深度學(xué)習(xí)模型能夠很好的提取到視頻中的信息。

整個(gè)過(guò)程分為兩步:

將視頻中的人臉進(jìn)行裁剪對(duì)齊

對(duì)于獲取人臉區(qū)域,研究人員使用由FaceForensics++提供的模型。

論文鏈接:

https://arxiv.org/abs/1901.08971

研究人員嘗試了兩種人臉對(duì)齊技術(shù)的結(jié)合:

顯式使用面部坐標(biāo)對(duì)齊,在參考坐標(biāo)系中,人的面部是先天決定的,所有的面孔是使用同一個(gè)參考坐標(biāo)系;

隱式排列對(duì)齊,使用STN。

在后一種情況下,網(wǎng)絡(luò)根據(jù)輸入圖像預(yù)測(cè)對(duì)齊參數(shù),因此可能學(xué)會(huì)縮放人臉的特定部分,必要時(shí)可將訓(xùn)練集中的預(yù)期損失最小化。

在這兩種情況下,核心思想都是我們希望循環(huán)卷積模型將人臉“tubelet”作為輸入,這是一個(gè)跨越視頻幀的時(shí)空緊密對(duì)齊的人臉序列。

所有篡改類(lèi)型的檢測(cè)精度。結(jié)果表明,采用線(xiàn)性和雙向遞歸網(wǎng)絡(luò)的DenseNet性能最好

基于視頻人臉篡改的檢測(cè)

對(duì)于人臉篡改的檢測(cè),我們使用一個(gè)類(lèi)似于用于視覺(jué)識(shí)別的Long-term循環(huán)卷積網(wǎng)絡(luò)。

論文鏈接:

https://arxiv.org/abs/1411.4389

其中輸入是來(lái)自查詢(xún)視頻的幀序列,這個(gè)模型背后是在利用跨幀的時(shí)間差異。由于篡改是在逐幀的基礎(chǔ)上進(jìn)行的,研究人員認(rèn)為圖像中會(huì)存在時(shí)間差異。因此,由對(duì)人臉的篡改引起的低層次的差別則有可能表現(xiàn)為跨幀不一致特性的時(shí)間差異。

骨干網(wǎng)絡(luò)(Backbone encoding network)

在實(shí)驗(yàn)中,研究人員探索了ResNet和DenseNet兩種架構(gòu)作為模型的CNN分量。

無(wú)論采用何種架構(gòu),首先對(duì)主干網(wǎng)絡(luò)進(jìn)行FF++訓(xùn)練分割,使交叉熵?fù)p失最小化,進(jìn)行二值分類(lèi),形成特征,從合成人臉中識(shí)別真實(shí)人臉。然后用RNN對(duì)Backbone進(jìn)行擴(kuò)展,最后在多種策略下形成端到端訓(xùn)練。

RNN的訓(xùn)練策略

研究人員使用放置在骨干網(wǎng)絡(luò)不同位置的多個(gè)循環(huán)模型進(jìn)行實(shí)驗(yàn):用它將骨干網(wǎng)絡(luò)連接在一起,用來(lái)進(jìn)行特征學(xué)習(xí),將特征傳遞給隨時(shí)間推移聚合輸入的RNN。

在這里研究人員也嘗試了兩種策略:一是在骨干網(wǎng)的最終特性基礎(chǔ)上,簡(jiǎn)單地使用單一的遞歸網(wǎng)絡(luò);二是嘗試在骨干網(wǎng)結(jié)構(gòu)的不同層次上訓(xùn)練多個(gè)遞歸神經(jīng)網(wǎng)絡(luò)。

所有篡改類(lèi)型的ROC曲線(xiàn)。每一行對(duì)應(yīng)一個(gè)不同的篡改類(lèi)型。左列為線(xiàn)性圖,右列為線(xiàn)性對(duì)數(shù)圖

希望能從源頭阻止deepfake假視頻

研究的共同作者Wael AbdAlmageed表示,這種模式可以被社交網(wǎng)站和視頻網(wǎng)站用于大規(guī)模識(shí)別deepfake假視頻,因?yàn)樗恍枰ㄟ^(guò)“學(xué)習(xí)”特定個(gè)體的關(guān)鍵特征來(lái)進(jìn)行識(shí)別,而是通用的。

“我們的模型對(duì)于任何人來(lái)說(shuō)都是通用的,因?yàn)槲覀儾魂P(guān)注某個(gè)人的身份,而是關(guān)注面部運(yùn)動(dòng)的一致性,”AbdAlmageed說(shuō),“我們將發(fā)布自己的模型,所以社交網(wǎng)絡(luò)無(wú)需訓(xùn)練新的模型。網(wǎng)站只需要在其平臺(tái)中加上該檢測(cè)軟件,以檢查上傳到平臺(tái)的視頻是否為deepfake生成的假視頻。”

機(jī)器學(xué)習(xí)的出現(xiàn)讓造假的成本逐漸變低,很多玩火不嫌事大的開(kāi)發(fā)者還開(kāi)發(fā)出許多不需要寫(xiě)代碼直接可以造假的小軟件,盡管他們不一定是出于惡意,但是不排除軟件最后被用到“作惡”的地方。

雖然還有許多方法可以反“AI造假”(例如在拍攝圖片時(shí)生成"噪聲水印"),但利用AI來(lái)識(shí)別AI造假,并且將這項(xiàng)技術(shù)加載到視頻網(wǎng)站的審查過(guò)程中,那么從源頭大規(guī)模地阻止假視頻流向公眾,或許可以成為現(xiàn)實(shí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    37012

    瀏覽量

    290039
  • DeepFake
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    6989

原文標(biāo)題:解鈴還須系鈴人!南加大訓(xùn)練AI檢測(cè)Deepfake“假視頻”,準(zhǔn)確率超90%

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    是一種快速反應(yīng)能力,是直接的感知;靈感是一種通過(guò)思考和探索獲得的創(chuàng)造性想法,是一種創(chuàng)意。 AI怎么模擬直覺(jué)與靈感呢?四、AI代替人類(lèi)的假說(shuō) 這可能嗎? 機(jī)器來(lái)生成假說(shuō): 1、直接生成 生成式
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    AI的應(yīng)用多種多樣。比如:DALL-E2、Midjourney、Stable Diffusion等,不僅包括對(duì)話(huà)功能,還包括生成圖像、視頻、語(yǔ)音和程序代碼等功能。 竟然連代碼都可以生成,會(huì)取代程序員
    發(fā)表于 09-12 16:07

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+可期之變:從AI硬件到AI濕件

    想到,除了研究大腦的抽象數(shù)學(xué)模型外,能否拋棄傳統(tǒng)的芯片實(shí)現(xiàn)方式,以化學(xué)物質(zhì)和生物組件、材料及相關(guān)現(xiàn)象來(lái)構(gòu)建人工神經(jīng)網(wǎng)絡(luò)或提取其功能來(lái)用于AI處理,甚至直接生物體來(lái)實(shí)現(xiàn)AI功能,這就是從AI
    發(fā)表于 09-06 19:12

    RK3576助力智慧安防:8路高清采集與AI識(shí)別

    框架實(shí)現(xiàn)高質(zhì)量采集與拼接。 ? AI視頻識(shí)別與行為分析:內(nèi)置AI推理引擎(支持RKNN),可實(shí)現(xiàn)人臉識(shí)別、車(chē)牌識(shí)別、行為分析等功能。 ? 多種顯示與推流方式:支持HDMI、DP、MIP
    發(fā)表于 08-22 17:41

    【Milk-V Duo S 開(kāi)發(fā)板免費(fèi)體驗(yàn)】人臉檢測(cè)

    多張人臉識(shí)別 針對(duì)畫(huà)面中存在多張人臉的情況進(jìn)行測(cè)試 識(shí)別效果較好,速度較快。 同時(shí)終端輸出檢測(cè)到的人臉數(shù)量 動(dòng)態(tài)效果見(jiàn)底部視頻。 總
    發(fā)表于 07-27 16:53

    AI視頻分析和算法集合

    AI
    jf_02235694
    發(fā)布于 :2025年07月23日 16:10:12

    【Milk-V Duo S 開(kāi)發(fā)板免費(fèi)體驗(yàn)】人臉檢測(cè)測(cè)試(視頻)

    運(yùn)行/mnt/system/usr/bin/ai/sample_vi_fd /mnt/cvimodel/scrfd_768_432_int8_1x.cvimodel 檢測(cè)人臉時(shí)打印 視頻
    發(fā)表于 07-11 22:33

    【BPI-CanMV-K230D-Zero開(kāi)發(fā)板體驗(yàn)】視頻會(huì)議場(chǎng)景下的 AI 應(yīng)用(電子云臺(tái) EPTZ、人像居中 / 追蹤、畫(huà)中畫(huà))

      近幾年由于各種原因,很多的會(huì)議都轉(zhuǎn)到了線(xiàn)上,各種視頻會(huì)議軟件用戶(hù)也都呈幾何倍數(shù)增長(zhǎng)。   視頻會(huì)議場(chǎng)景下,對(duì)于音視頻處理都有一定要求,AI 時(shí)代下,人們已經(jīng)不僅僅滿(mǎn)足于聽(tīng)的到,看的
    發(fā)表于 07-09 20:56

    【BPI-CanMV-K230D-Zero開(kāi)發(fā)板體驗(yàn)】AI 算法模型(人臉檢測(cè)、軀干檢測(cè)、車(chē)牌識(shí)別)

    K230D 支持多種 AI 應(yīng)用,并且內(nèi)置于 CanMV 鏡像中,分為單模型應(yīng)用和多模型應(yīng)用兩種,內(nèi)容涵蓋物體、人臉、人手、人體、車(chē)牌、OCR、音頻(KWS、TTS)等多個(gè)應(yīng)用領(lǐng)域。 這里選擇幾種
    發(fā)表于 07-05 00:52

    【BPI-CanMV-K230D-Zero開(kāi)發(fā)板體驗(yàn)】03 攝像頭調(diào)用+AI人臉檢測(cè)

    aidemo.face_det_post_process() 將模型輸出結(jié)果轉(zhuǎn)換為人臉檢測(cè)框。 內(nèi)部實(shí)現(xiàn)解碼 Anchor;根據(jù)置信度篩選;執(zhí)行 NMS 去重。 2.5 nncase_runtime 支持 AI2D 格式、推理
    發(fā)表于 07-01 22:43

    【BPI-CanMV-K230D-Zero開(kāi)發(fā)板體驗(yàn)】人臉檢測(cè)、手勢(shì)識(shí)別、車(chē)牌識(shí)別

    API . 人臉檢測(cè) 人臉檢測(cè)應(yīng)用對(duì)視頻中每一個(gè)人臉檢測(cè)
    發(fā)表于 06-30 20:44

    《DNESP32S3使用指南-IDF版_V1.6》第五十八章 人臉檢測(cè)實(shí)驗(yàn)

    監(jiān)控和跟蹤。人臉檢測(cè)技術(shù)通過(guò)使用算法自動(dòng)搜索圖像/視頻幀中的人臉,判斷是否存在人臉,并返回人臉
    發(fā)表于 03-24 09:34

    《DNESP32S3使用指南-IDF版_V1.6》第五十七章 樂(lè)鑫AI庫(kù)簡(jiǎn)介

    第五十七章 樂(lè)鑫AI庫(kù)簡(jiǎn)介 樂(lè)鑫的ESP-WHO庫(kù)是一個(gè)基于樂(lè)鑫芯片的圖像處理開(kāi)發(fā)平臺(tái),其中包括了實(shí)際應(yīng)用中可能出現(xiàn)的開(kāi)發(fā)示例,如人臉檢測(cè)、人臉識(shí)別、貓臉
    發(fā)表于 03-21 09:47

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》----- 學(xué)習(xí)如何開(kāi)發(fā)視頻應(yīng)用

    再次感謝發(fā)燒友提供的閱讀體驗(yàn)活動(dòng)。本期跟隨《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》這本書(shū)學(xué)習(xí)如何構(gòu)建開(kāi)發(fā)一個(gè)視頻應(yīng)用。AI Agent是一種智能應(yīng)用,能夠根據(jù)用戶(hù)需求和環(huán)境變化做出相應(yīng)響應(yīng)。通?;谏疃?/div>
    發(fā)表于 03-05 19:52

    可靈AI全球首發(fā)視頻模型定制功能,助力AI視頻創(chuàng)作

    屬于自己的專(zhuān)屬人臉模型。在模型定制完成后,用戶(hù)可以基于該模型生成包含同一人物鏡頭的多個(gè)視頻內(nèi)容,從而滿(mǎn)足用戶(hù)對(duì)于個(gè)性化視頻創(chuàng)作的多樣化需求。 此外,可靈AI還對(duì)其1.5模型進(jìn)行了全面升
    的頭像 發(fā)表于 11-26 14:02 ?1463次閱讀