chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于視頻流的自監(jiān)督特征表達方法

5b9O_deeplearni ? 來源:深度學(xué)習(xí)大講堂 ? 2019-12-08 07:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:著名心理學(xué)家Paul Ekman和研究伙伴W.V.Friesen,通過對臉部肌肉動作與對應(yīng)表情關(guān)系的研究,于1976年創(chuàng)制了“面部運動編碼系統(tǒng)”,而利用微表情的“讀心術(shù)”正是基于這一研究體系。由于該領(lǐng)域有限的數(shù)據(jù)集和高昂的標(biāo)注成本,有監(jiān)督學(xué)習(xí)的方法往往會導(dǎo)致模型過擬合。本文中,將為大家介紹中科院計算所VIPL組的CVPR2019新作:作者提出了一種基于視頻流的自監(jiān)督特征表達方法,通過利用巧妙的自監(jiān)督約束信號, 得到提純的面部動作特征用于微表情識別。

1.研究背景

面部運動編碼系統(tǒng) (FACS,F(xiàn)acial Action Coding System)從人臉解剖學(xué)的角度,定義了44個面部動作單元(Action Unit,簡稱AU)用于描述人臉局部區(qū)域的肌肉運動,如圖1所示,AU9表示“皺鼻”,AU12表示“嘴角拉伸”。各種動作單元之間可以自由組合,對應(yīng)不同的表情。如“AU4(降低眉毛)+AU5(上眼瞼上升)+AU24(嘴唇相互按壓)”這一組合對應(yīng)“憤怒”這一情緒狀態(tài)。

面部動作單元能夠客觀、精確、細粒度地描述人臉表情。然而昂貴的標(biāo)注代價在很大程度上限制了AU識別問題的研究進展,其原因在于不同的AU分布在人臉的不同區(qū)域,表現(xiàn)為不同強度、不同尺度的細微變化。具體來說,為一分鐘的人臉視頻標(biāo)注一個AU,需要耗費一名AU標(biāo)注專家30分鐘。目前學(xué)術(shù)界已發(fā)布的AU數(shù)據(jù)集只包含了有限的采集對象,以及有限的人臉圖像(如2017年CMU發(fā)布的GFT數(shù)據(jù)集有96個人,約35,000張人臉圖像)。

圖1. 面部動作單元示例

當(dāng)前已有的工作多采用人臉區(qū)域分塊、注意力機制等方法學(xué)習(xí)人臉局部區(qū)域的AU特征,這類方法在訓(xùn)練階段需要利用精確標(biāo)注的AU標(biāo)簽,由于目前業(yè)界發(fā)布的AU數(shù)據(jù)集人數(shù)及圖像總量不足,采用監(jiān)督學(xué)習(xí)方法訓(xùn)練得到的模型往往呈現(xiàn)出在特定數(shù)據(jù)集上的過擬合現(xiàn)象,這無疑限制了其實際使用效果。

我們提出了一種能夠在不依賴AU標(biāo)簽的前提下,從人臉視頻數(shù)據(jù)中自動學(xué)習(xí)AU表征的方法(Twin-Cycle Autoencoder,簡稱TCAE)。TCAE用于后續(xù)的AU識別任務(wù)時,只需要利用訓(xùn)練數(shù)據(jù)訓(xùn)練一個分類器即可,顯著減少了所需的訓(xùn)練數(shù)據(jù),并提升了模型的泛化能力。

2.方法概述

如圖2所示,該方法以兩幀人臉圖像(源圖,目標(biāo)圖)之間的運動信息為監(jiān)督信號,驅(qū)使模型提取出用于解碼運動信息的圖像特征。這個方法的理念在于,模型只有感知并理解了人臉圖像中各個面部動作單元的狀態(tài)(AU是否激活),才能夠?qū)⒃磮D的面部動作轉(zhuǎn)換為目標(biāo)圖像的面部動作。

圖2. TCAE 設(shè)計圖

考慮到兩幀人臉圖像之間的運動信息包含了AU以及頭部姿態(tài)的運動分量,TCAE通過利用巧妙的自監(jiān)督約束信號,使得模型能夠分離出AU變化引起的運動分量,以及頭部姿態(tài)變化引起的運動分量,從而得到提純的AU特征。與其他監(jiān)督方法,TCAE可以利用大量的無標(biāo)注人臉視頻,這類視頻是海量的。與半監(jiān)督或者弱監(jiān)督方法相比, TCAE采用了自監(jiān)督信號進行模型訓(xùn)練,避免了對數(shù)據(jù)或者標(biāo)簽的分布做出任何假設(shè)。

3.算法詳解

如圖3所示,TCAE包含四個階段,分別是特征解耦,圖像重建,AU循環(huán)變換,以及姿態(tài)(pose)循環(huán)變換。

給定兩張人臉圖像,TCAE在特征解耦階段使用編碼器得到每張圖像的AU特征以及姿態(tài)特征,隨后,兩幀圖像的AU特征被送入AU解碼器,用于解碼出AU位移場;兩幀圖像的姿態(tài)特征被送入姿態(tài)解碼器,用于解碼出姿態(tài)位移場??紤]到AU的變化是稀疏的,且AU位移場的數(shù)值與姿態(tài)位移場相比更小,我們?yōu)锳U位移場添加了L1約束:

在目標(biāo)圖重建階段,TCAE通過線性組合AU位移場和pose位移場,得到源圖和目標(biāo)圖之間的整體位移場,進行圖像重建:

在AU循環(huán)變換階段,僅變換了AU的人臉圖像被重新變換到源圖,由此我們獲得一個像素層面的一致性約束:

另外,對于變換了AU的人臉圖像,其AU特征應(yīng)該接近目標(biāo)圖像的AU特征,其姿態(tài)特征應(yīng)該和源圖的姿態(tài)特征一致,由此我們獲得一個特征層面的一致性約束:

同理,在pose循環(huán)變化階段,我們同樣可以獲得類似的像素及特征層面的一致性約束:

圖3. TCAE的四個階段示意圖,四個階段分別是特征解耦,圖像重建,AU循環(huán)變換,以及pose循環(huán)變換。

4.實驗結(jié)果

多個數(shù)據(jù)集上的實驗證明,TCAE能夠成功提取出人臉圖像的AU及姿態(tài)特征。如圖4所示,給定兩張人臉圖像(源圖,目標(biāo)圖),TCAE能夠僅僅改變源圖的AU或者頭部姿態(tài)??梢暬腁U位移場呈現(xiàn)出運動方向的多樣性。

在AU識別任務(wù)上,TCAE取得了與監(jiān)督方法可比的性能。表1及表2的結(jié)果表明,TCAE明顯優(yōu)于其他自監(jiān)督方法。在GFT數(shù)據(jù)集(該數(shù)據(jù)集存在大范圍的頭部姿態(tài)變化)上,TCAE的性能優(yōu)于其他監(jiān)督方法。

圖4. 可視化結(jié)果

表1. BP4D及DISFA數(shù)據(jù)集評測結(jié)果

(評測標(biāo)準(zhǔn):F1 值 (%))

表2. GFT及EmotioNet數(shù)據(jù)集評測結(jié)果

(評測標(biāo)準(zhǔn):F1 值 (%) )

5.總結(jié)與展望

TCAE通過自監(jiān)督的方法學(xué)習(xí)到了魯棒的AU表征,實驗證明該AU表征是魯棒的,適用于AU分類任務(wù)的??梢暬Y(jié)果表明,TCAE具有潛在的人臉表情編輯價值。另外,TCAE在訓(xùn)練階段使用了大量的無標(biāo)簽數(shù)據(jù)(近6000人,約10,000,000張圖像),由此可見使用自監(jiān)督方法訓(xùn)練模型時數(shù)據(jù)利用的效率需要進一步提高,這一點在BERT的實驗分析中也得到了印證:Good results on pre-training is >1,000x to 100,000 more expensive than supervised training。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1199

    瀏覽量

    42571
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    42020
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    25928

原文標(biāo)題:【CVPR2019】“識面知心”——基于自監(jiān)督學(xué)習(xí)的微表情特征表達

文章出處:【微信號:deeplearningclass,微信公眾號:深度學(xué)習(xí)大講堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    一種新的無刷直流電機反電動勢檢測方法

    無位置傳感器無刷直流電機的控制算法是近年來研究的熱點之,有霍爾位置信號直流電機根據(jù)霍爾狀態(tài)來確定通斷功率器件。利用無刷直流電機的數(shù)學(xué)模型,根據(jù)反電動勢檢測原理,提出了一種新的線反電動勢檢測方法
    發(fā)表于 08-07 14:29

    一種新的無刷直流電機反電動勢檢測方法

    無位置傳感器無刷直流電機的控制算法是近年來研究的熱點之,有霍爾位置信號直流電機根據(jù)霍爾狀態(tài)來確定通斷功率器件。利用無刷直流電機的數(shù)學(xué)模型,根據(jù)反電動勢檢測原理,提出了一種新的線反電動勢檢測方法
    發(fā)表于 08-04 14:59

    如何保存al視頻中的幀照片?

    如何保存al視頻中的幀照片
    發(fā)表于 07-11 08:07

    使用MATLAB進行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1018次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督</b>學(xué)習(xí)

    一種實時多線程VSLAM框架vS-Graphs介紹

    針對現(xiàn)有VSLAM系統(tǒng)語義表達不足、地圖可解釋性差的問題,本文提出vS-Graphs,一種實時多線程VSLAM框架。該方案顯著提升了重建地圖的語義豐富度、可解釋性及定位精度。實驗表明
    的頭像 發(fā)表于 04-19 14:07 ?599次閱讀
    <b class='flag-5'>一種</b>實時多線程VSLAM框架vS-Graphs介紹

    一種基于點、線和消失點特征的單目SLAM系統(tǒng)設(shè)計

    本文提出了一種穩(wěn)健的單目視覺SLAM系統(tǒng),該系統(tǒng)同時利用點、線和消失點特征來進行精確的相機位姿估計和地圖構(gòu)建,有效解決了傳統(tǒng)基于點特征的SLAM的局限性。
    的頭像 發(fā)表于 03-21 17:07 ?678次閱讀
    <b class='flag-5'>一種</b>基于點、線和消失點<b class='flag-5'>特征</b>的單目SLAM系統(tǒng)設(shè)計

    一種基于基礎(chǔ)模型對齊的監(jiān)督三維空間理解方法

    三維空間理解是推動自動駕駛、具身智能等領(lǐng)域中智能系統(tǒng)實現(xiàn)環(huán)境感知、交互的核心任務(wù),其中3D語義占據(jù)預(yù)測 (Semantic Occupancy Prediction) 對三維場景進行精準(zhǔn)的體素級建模。然而,當(dāng)前主流方法嚴(yán)重依賴大規(guī)模標(biāo)注數(shù)據(jù),制約了模型的可擴展性和泛化能力。
    的頭像 發(fā)表于 03-18 15:01 ?622次閱讀
    <b class='flag-5'>一種</b>基于基礎(chǔ)模型對齊的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>三維空間理解<b class='flag-5'>方法</b>

    紙基微控芯片的加工方法和優(yōu)勢

    紙基微控芯片的加工方法主要包括激光切割、壓印技術(shù)、噴墨打印技術(shù)、層壓技術(shù)和表面改性技術(shù)等。以下是這些加工方法的具體介紹: 激光切割 激光切割是一種利用激光束對材料進行切削的加工
    的頭像 發(fā)表于 02-26 15:15 ?643次閱讀

    一種面向飛行試驗的數(shù)據(jù)融合框架

    天地氣動數(shù)據(jù)致性,針對某外形飛行試驗數(shù)據(jù)開展了典型對象的天地氣動數(shù)據(jù)融合方法研究。結(jié)合數(shù)據(jù)挖掘的隨機森林方法,本文提出了一種面向飛行試驗的數(shù)據(jù)融合框架,通過引入地面風(fēng)洞試驗氣動數(shù)據(jù),
    的頭像 發(fā)表于 11-27 11:34 ?1152次閱讀
    <b class='flag-5'>一種</b>面向飛行試驗的數(shù)據(jù)融合框架

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機電系統(tǒng)中的故障檢測對其可維護性和安全性至關(guān)重要。然而,系統(tǒng)監(jiān)測變量往往具有復(fù)雜的聯(lián)系,很難表征它們的關(guān)系并提取有效的特征。本文開發(fā)了一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)(HGCAN),以提高復(fù)雜
    的頭像 發(fā)表于 11-12 09:52 ?1402次閱讀
    <b class='flag-5'>一種</b>基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    數(shù)據(jù)準(zhǔn)備指南:10基礎(chǔ)特征工程方法的實戰(zhàn)教程

    在數(shù)據(jù)分析和機器學(xué)習(xí)領(lǐng)域,從原始數(shù)據(jù)中提取有價值的信息是個關(guān)鍵步驟。這個過程不僅有助于輔助決策,還能預(yù)測未來趨勢。為了實現(xiàn)這目標(biāo),特征工程技術(shù)顯得尤為重要。特征工程是將原始數(shù)據(jù)轉(zhuǎn)化
    的頭像 發(fā)表于 11-01 08:09 ?815次閱讀
    數(shù)據(jù)準(zhǔn)備指南:10<b class='flag-5'>種</b>基礎(chǔ)<b class='flag-5'>特征</b>工程<b class='flag-5'>方法</b>的實戰(zhàn)教程

    一種創(chuàng)新的動態(tài)軌跡預(yù)測方法

    本文提出了一種動態(tài)軌跡預(yù)測方法,通過結(jié)合歷史幀和歷史預(yù)測結(jié)果來提高預(yù)測的穩(wěn)定性和準(zhǔn)確性。它引入了歷史預(yù)測注意力模塊,以編碼連續(xù)預(yù)測之間的動態(tài)關(guān)系,并通過三重因子注意力模塊實現(xiàn)了最先進的性能。本方法能夠生成準(zhǔn)確且穩(wěn)定的未來軌跡,這
    的頭像 發(fā)表于 10-28 14:34 ?1462次閱讀
    <b class='flag-5'>一種</b>創(chuàng)新的動態(tài)軌跡預(yù)測<b class='flag-5'>方法</b>

    一種基于光強度相關(guān)反饋的波前整形方法

    基于反饋的波前整形通過散射介質(zhì)聚焦光是一種成熟的方法。在傳統(tǒng)的基于反饋的波前整形中,入射光被分成N個輸入模式,這些模式由空間光調(diào)制器(SLM)使用N個段進行調(diào)制,每個段具有相同數(shù)量和大小的像素
    的頭像 發(fā)表于 10-27 16:28 ?959次閱讀
    <b class='flag-5'>一種</b>基于光強度相關(guān)反饋的波前整形<b class='flag-5'>方法</b>

    一種簡單高效配置FPGA的方法

    本文描述了一種簡單高效配置FPGA的方法,該方法利用微處理器從串行外圍接口(SPI)閃存配置FPGA設(shè)備。這種方法減少了硬件組件、板空間和成本。
    的頭像 發(fā)表于 10-24 14:57 ?2050次閱讀
    <b class='flag-5'>一種</b>簡單高效配置FPGA的<b class='flag-5'>方法</b>

    特征工程實施步驟

    數(shù)據(jù)中提取數(shù)值表示以供無監(jiān)督模型使用的方法(例如,試圖從之前非結(jié)構(gòu)化的數(shù)據(jù)集中提取結(jié)構(gòu))。特征工程包括這兩情況,以及更多內(nèi)容。數(shù)據(jù)從業(yè)者通常依賴ML和深度學(xué)習(xí)算法
    的頭像 發(fā)表于 10-23 08:07 ?1223次閱讀
    <b class='flag-5'>特征</b>工程實施步驟