chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CVPR2019新作:一種基于視頻流的自監(jiān)督特征表達(dá)方法

nlfO_thejiangme ? 來源:lq ? 2019-10-01 16:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文為新欄目——將門好聲音第5期。

作者是來自將門計(jì)算機(jī)視覺社群的群友、中科院計(jì)算技術(shù)研究所VIPL課題組博士生——李勇。本文中,他將為大家介紹中科院計(jì)算所VIPL組的CVPR2019新作:一種基于視頻流的自監(jiān)督特征表達(dá)方法,通過利用巧妙的自監(jiān)督約束信號(hào),得到提純的面部動(dòng)作特征用于微表情識(shí)別。

如果你也想與廣大群友分享自己的研究工作、文章觀點(diǎn)、出坑經(jīng)驗(yàn),隨時(shí)與群主小姐姐聯(lián)系!只要內(nèi)容合適,我“門”送你頭條出道!

著名心理學(xué)家Paul Ekman和研究伙伴W.V.Friesen,通過對(duì)臉部肌肉動(dòng)作與對(duì)應(yīng)表情關(guān)系的研究,于1976年創(chuàng)制了“面部運(yùn)動(dòng)編碼系統(tǒng)”,而利用微表情的“讀心術(shù)”正是基于這一研究體系。由于該領(lǐng)域有限的數(shù)據(jù)集和高昂的標(biāo)注成本,有監(jiān)督學(xué)習(xí)的方法往往會(huì)導(dǎo)致模型過擬合。本文中,將為大家介紹中科院計(jì)算所VIPL組的CVPR2019新作:作者提出了一種基于視頻流的自監(jiān)督特征表達(dá)方法,通過利用巧妙的自監(jiān)督約束信號(hào),得到提純的面部動(dòng)作特征用于微表情識(shí)別。

李勇,中國科學(xué)院計(jì)算技術(shù)研究所視覺信息處理與課題組博士研究生,導(dǎo)師為常虹副研究員以及山世光研究員,研究方向?yàn)殚_放場景下的人臉表情分析。在攻讀博士學(xué)位期間,李勇在 CVPR, TIP 等會(huì)議及期刊上發(fā)表過多篇學(xué)術(shù)論文,其已發(fā)表的會(huì)議文章均被錄取為口頭報(bào)告。此外,李勇獲得ACM Multimedia 2017 親屬關(guān)系識(shí)別國際競賽冠軍。

論文信息:

Yong Li, Jiabei Zeng, Shiguang Shan, Xilin Chen. “Self-Supervised Representation Learning From Videos for Facial Action Unit Detection”, CVPR 2019, pp. 10924-10933, Long Beach, California, USA, June 16-20, 2019.

論文鏈接:

http://openaccess.thecvf.com/content_CVPR_2019/papers/Li_Self-Supervised_Representation_Learning_From_Videos_for_Facial_Action_Unit_Detection_CVPR_2019_paper.pdf

一、研究背景

面部運(yùn)動(dòng)編碼系統(tǒng)(FACS,F(xiàn)acial Action Coding System)從人臉解剖學(xué)的角度,定義了44個(gè)面部動(dòng)作單元(Action Unit,簡稱AU)用于描述人臉局部區(qū)域的肌肉運(yùn)動(dòng)。

圖1. 面部動(dòng)作單元示例

如圖1所示,AU9表示“皺鼻”,AU12表示“嘴角拉伸”。各種動(dòng)作單元之間可以自由組合,對(duì)應(yīng)不同的表情。如“AU4(降低眉毛)+AU5(上眼瞼上升)+AU24(嘴唇相互按壓)”這一組合對(duì)應(yīng)“憤怒”這一情緒狀態(tài)。

面部動(dòng)作單元能夠客觀、精確、細(xì)粒度地描述人臉表情。然而昂貴的標(biāo)注代價(jià)在很大程度上限制了AU識(shí)別問題的研究進(jìn)展,其原因在于不同的AU分布在人臉的不同區(qū)域,表現(xiàn)為不同強(qiáng)度、不同尺度的細(xì)微變化。具體來說,為一分鐘的人臉視頻標(biāo)注一個(gè)AU,需要耗費(fèi)一名AU標(biāo)注專家30分鐘。目前學(xué)術(shù)界已發(fā)布的AU數(shù)據(jù)集只包含了有限的采集對(duì)象,以及有限的人臉圖像(如2017年CMU發(fā)布的GFT數(shù)據(jù)集有96個(gè)人,約35,000張人臉圖像)。

當(dāng)前已有的工作多采用人臉區(qū)域分塊、注意力機(jī)制等方法學(xué)習(xí)人臉局部區(qū)域的AU特征,這類方法在訓(xùn)練階段需要利用精確標(biāo)注的AU標(biāo)簽,由于目前業(yè)界發(fā)布的AU數(shù)據(jù)集人數(shù)及圖像總量不足,采用監(jiān)督學(xué)習(xí)方法訓(xùn)練得到的模型往往呈現(xiàn)出在特定數(shù)據(jù)集上的過擬合現(xiàn)象,這無疑限制了其實(shí)際使用效果。

我們提出了一種能夠在不依賴AU標(biāo)簽的前提下,從人臉視頻數(shù)據(jù)中自動(dòng)學(xué)習(xí)AU表征的方法(Twin-Cycle Autoencoder,簡稱TCAE)。TCAE用于后續(xù)的AU識(shí)別任務(wù)時(shí),只需要利用訓(xùn)練數(shù)據(jù)訓(xùn)練一個(gè)分類器即可,顯著減少了所需的訓(xùn)練數(shù)據(jù),并提升了模型的泛化能力。

二、方法概述

如圖2所示,該方法以兩幀人臉圖像(源圖,目標(biāo)圖)之間的運(yùn)動(dòng)信息為監(jiān)督信號(hào),驅(qū)使模型提取出用于解碼運(yùn)動(dòng)信息的圖像特征。這個(gè)方法的理念在于,模型只有感知并理解了人臉圖像中各個(gè)面部動(dòng)作單元的狀態(tài)(AU是否激活),才能夠?qū)⒃磮D的面部動(dòng)作轉(zhuǎn)換為目標(biāo)圖像的面部動(dòng)作。

圖2. TCAE 設(shè)計(jì)圖

考慮到兩幀人臉圖像之間的運(yùn)動(dòng)信息包含了AU以及頭部姿態(tài)的運(yùn)動(dòng)分量,TCAE通過利用巧妙的自監(jiān)督約束信號(hào),使得模型能夠分離出AU變化引起的運(yùn)動(dòng)分量,以及頭部姿態(tài)變化引起的運(yùn)動(dòng)分量,從而得到提純的AU特征。與其他監(jiān)督方法,TCAE可以利用大量的無標(biāo)注人臉視頻,這類視頻是海量的。與半監(jiān)督或者弱監(jiān)督方法相比, TCAE采用了自監(jiān)督信號(hào)進(jìn)行模型訓(xùn)練,避免了對(duì)數(shù)據(jù)或者標(biāo)簽的分布做出任何假設(shè)。

三、算法詳解

如圖3所示,TCAE包含四個(gè)階段,分別是特征解耦,圖像重建,AU循環(huán)變換,以及姿態(tài)(pose)循環(huán)變換。

圖3. TCAE的四個(gè)階段示意圖,四個(gè)階段分別是特征解耦,圖像重建,AU循環(huán)變換,以及姿態(tài)循環(huán)變換。

給定兩張人臉圖像,TCAE在特征解耦階段使用編碼器得到每張圖像的AU特征以及姿態(tài)特征,隨后,兩幀圖像的AU特征被送入AU解碼器,用于解碼出AU位移場;兩幀圖像的姿態(tài)特征被送入姿態(tài)解碼器,用于解碼出姿態(tài)位移場??紤]到AU的變化是稀疏的,且AU位移場的數(shù)值與姿態(tài)位移場相比更小,我們?yōu)锳U位移場添加了L1約束:

在目標(biāo)圖重建階段,TCAE通過線性組合AU位移場和pose位移場,得到源圖和目標(biāo)圖之間的整體位移場,進(jìn)行圖像重建:

在AU循環(huán)變換階段,僅變換了AU的人臉圖像被重新變換到源圖,由此我們獲得一個(gè)像素層面的一致性約束:

另外,對(duì)于變換了AU的人臉圖像,其AU特征應(yīng)該接近目標(biāo)圖像的AU特征,其姿態(tài)特征應(yīng)該和源圖的姿態(tài)特征一致,由此我們獲得一個(gè)特征層面的一致性約束:

同理,在pose循環(huán)變化階段,我們同樣可以獲得類似的像素及特征層面的一致性約束:

四、實(shí)驗(yàn)結(jié)果

多個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)證明,TCAE能夠成功提取出人臉圖像的AU及姿態(tài)特征。如圖4所示,給定兩張人臉圖像(源圖,目標(biāo)圖),TCAE能夠僅僅改變?cè)磮D的AU或者頭部姿態(tài)??梢暬腁U位移場呈現(xiàn)出運(yùn)動(dòng)方向的多樣性。

圖4. 可視化結(jié)果在AU識(shí)別任務(wù)上,TCAE取得了與監(jiān)督方法可比的性能。

表1及表2的結(jié)果表明,TCAE明顯優(yōu)于其他自監(jiān)督方法。在GFT數(shù)據(jù)集(該數(shù)據(jù)集存在大范圍的頭部姿態(tài)變化)上,TCAE的性能優(yōu)于其他監(jiān)督方法。

表1. BP4D及DISFA數(shù)據(jù)集評(píng)測結(jié)果

(評(píng)測標(biāo)準(zhǔn):F1 值 (%))

表2. GFT及EmotioNet數(shù)據(jù)集評(píng)測結(jié)果(評(píng)測標(biāo)準(zhǔn):F1 值 (%) )

五、總結(jié)與展望

TCAE通過自監(jiān)督的方法學(xué)習(xí)到了魯棒的AU表征,實(shí)驗(yàn)證明該AU表征是魯棒的,適用于AU分類任務(wù)的??梢暬Y(jié)果表明,TCAE具有潛在的人臉表情編輯價(jià)值。另外,TCAE在訓(xùn)練階段使用了大量的無標(biāo)簽數(shù)據(jù)(近6000人,約10,000,000張圖像),由此可見使用自監(jiān)督方法訓(xùn)練模型時(shí)數(shù)據(jù)利用的效率需要進(jìn)一步提高,這一點(diǎn)在BERT的實(shí)驗(yàn)分析中也得到了印證:

Good results on pre-training is 》1,000x to 100,000 more expensive than supervised training.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:將門好聲音 | CVPR2019 “識(shí)面知心”——基于自監(jiān)督學(xué)習(xí)的微表情特征表達(dá)

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    CVPR 2019看事件相機(jī)步態(tài)識(shí)別:技術(shù)突破與產(chǎn)品應(yīng)用

    這篇題為《EV-Gait:Event-basedRobustGaitRecognitionusingDynamicVisionSensors》的論文發(fā)表于計(jì)算機(jī)視覺領(lǐng)域的頂級(jí)會(huì)議CVPR2019
    的頭像 發(fā)表于 02-27 16:22 ?699次閱讀
    從<b class='flag-5'>CVPR</b> <b class='flag-5'>2019</b>看事件相機(jī)步態(tài)識(shí)別:技術(shù)突破與產(chǎn)品應(yīng)用

    布爾表達(dá)式及范圍檢查

    p.y < r->ymax); } 這里有一種更快的方法:x>min xxmin) < r->xmax (unsigned) (p.y - r->ymin) < r->ymax); }
    發(fā)表于 12-12 07:08

    指令集測試的一種糾錯(cuò)方法

    本文描述在進(jìn)行指令集測試的一種糾錯(cuò)方法 1.打開測試指令集對(duì)應(yīng)的dump文件 dump文件是指由匯編文件進(jìn)行反匯編之后,可以供人閱讀指令的反匯編文件。其包含了每條指令的具體操作的信息。指令集測試
    發(fā)表于 10-24 14:04

    一種新的無刷直流電機(jī)反電動(dòng)勢檢測方法

    無位置傳感器無刷直流電機(jī)的控制算法是近年來研究的熱點(diǎn)之,有霍爾位置信號(hào)直流電機(jī)根據(jù)霍爾狀態(tài)來確定通斷功率器件。利用無刷直流電機(jī)的數(shù)學(xué)模型,根據(jù)反電動(dòng)勢檢測原理,提出了一種新的線反電動(dòng)勢檢測方法
    發(fā)表于 08-07 14:29

    一種新的無刷直流電機(jī)反電動(dòng)勢檢測方法

    無位置傳感器無刷直流電機(jī)的控制算法是近年來研究的熱點(diǎn)之,有霍爾位置信號(hào)直流電機(jī)根據(jù)霍爾狀態(tài)來確定通斷功率器件。利用無刷直流電機(jī)的數(shù)學(xué)模型,根據(jù)反電動(dòng)勢檢測原理,提出了一種新的線反電動(dòng)勢檢測方法
    發(fā)表于 08-04 14:59

    一種基于PWM的電壓輸出DAC電路設(shè)計(jì)

    誤差的方法,論文給出了兩從PWM到0~5V電壓輸出的電路實(shí)現(xiàn)方法,第2電路具有很高的轉(zhuǎn)換精度。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ 內(nèi)容有幫助可以關(guān)注、點(diǎn)贊、評(píng)論支
    發(fā)表于 08-04 14:58

    一種帶通濾波器在無位置傳感器轉(zhuǎn)子檢測中的應(yīng)用

    摘 要:論文研究了一種直流無刷電機(jī)的無位置傳感器的轉(zhuǎn)子位置的硬件電路檢測方法。結(jié)合傳統(tǒng)“反電動(dòng)勢\"方法,分析并設(shè)計(jì)了一種新的帶通濾波器延時(shí)檢測電路。該電路不僅可以抑制高頻分量和消除直
    發(fā)表于 08-04 14:56

    如何保存al視頻中的幀照片?

    如何保存al視頻中的幀照片
    發(fā)表于 07-11 08:07

    傳音多媒體團(tuán)隊(duì)攬獲CVPR NTIRE 2025兩項(xiàng)挑戰(zhàn)賽冠亞軍

    Efficient Super-Resolution Challenge)第名,短視頻UGC圖像超分辨率挑戰(zhàn)賽(NTIRE 2025 Short-form UGC Image Super-Resolution
    的頭像 發(fā)表于 06-24 16:08 ?1626次閱讀
    傳音多媒體團(tuán)隊(duì)攬獲<b class='flag-5'>CVPR</b> NTIRE 2025兩項(xiàng)挑戰(zhàn)賽冠亞軍

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1433次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督</b>學(xué)習(xí)

    FCX3上的視頻亂碼怎么解決?

    我們?cè)谑褂?CX3 和 1.3.5 EzUSB SDK 運(yùn)行視頻傳感器時(shí)遇到了些間歇性問題。 打開視頻任意時(shí)間后,視頻
    發(fā)表于 05-16 07:32

    一種實(shí)時(shí)多線程VSLAM框架vS-Graphs介紹

    針對(duì)現(xiàn)有VSLAM系統(tǒng)語義表達(dá)不足、地圖可解釋性差的問題,本文提出vS-Graphs,一種實(shí)時(shí)多線程VSLAM框架。該方案顯著提升了重建地圖的語義豐富度、可解釋性及定位精度。實(shí)驗(yàn)表明
    的頭像 發(fā)表于 04-19 14:07 ?997次閱讀
    <b class='flag-5'>一種</b>實(shí)時(shí)多線程VSLAM框架vS-Graphs介紹

    一種永磁電機(jī)用轉(zhuǎn)子組件制作方法

    一種永磁電機(jī)所使用的轉(zhuǎn)子組件,是由磁鋼與芯軸組裝而成,產(chǎn)品工作轉(zhuǎn)速80 000 r /mi n,磁鋼相對(duì)于芯軸的同軸度要小于O.015 mm。現(xiàn)有的裝配方法是:先在芯軸兩端面制作中心孔,然后直接
    發(fā)表于 03-25 15:20

    一種基于點(diǎn)、線和消失點(diǎn)特征的單目SLAM系統(tǒng)設(shè)計(jì)

    本文提出了一種穩(wěn)健的單目視覺SLAM系統(tǒng),該系統(tǒng)同時(shí)利用點(diǎn)、線和消失點(diǎn)特征來進(jìn)行精確的相機(jī)位姿估計(jì)和地圖構(gòu)建,有效解決了傳統(tǒng)基于點(diǎn)特征的SLAM的局限性。
    的頭像 發(fā)表于 03-21 17:07 ?1048次閱讀
    <b class='flag-5'>一種</b>基于點(diǎn)、線和消失點(diǎn)<b class='flag-5'>特征</b>的單目SLAM系統(tǒng)設(shè)計(jì)

    一種基于基礎(chǔ)模型對(duì)齊的監(jiān)督三維空間理解方法

    三維空間理解是推動(dòng)自動(dòng)駕駛、具身智能等領(lǐng)域中智能系統(tǒng)實(shí)現(xiàn)環(huán)境感知、交互的核心任務(wù),其中3D語義占據(jù)預(yù)測 (Semantic Occupancy Prediction) 對(duì)三維場景進(jìn)行精準(zhǔn)的體素級(jí)建模。然而,當(dāng)前主流方法嚴(yán)重依賴大規(guī)模標(biāo)注數(shù)據(jù),制約了模型的可擴(kuò)展性和泛化能力。
    的頭像 發(fā)表于 03-18 15:01 ?970次閱讀
    <b class='flag-5'>一種</b>基于基礎(chǔ)模型對(duì)齊的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>三維空間理解<b class='flag-5'>方法</b>