chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

3D姿態(tài)估計 時序卷積+半監(jiān)督訓(xùn)練

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-08 22:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

首發(fā):AIWalker

標(biāo)題&作者團(tuán)隊

1. 論文簡要

在這項工作中,視頻中的3D姿態(tài)可以通過全卷積模型來估計,具體是在二維關(guān)鍵點(diǎn)上通過空洞時間卷積的模型得到3D姿態(tài)。我們還介紹了一種不帶標(biāo)簽(反向投影)的半監(jiān)督式訓(xùn)練方法。我們先從未標(biāo)注視頻中得到2D姿態(tài),然后估計3D姿態(tài)和最后反向投影到輸入的2D關(guān)鍵點(diǎn)。在實(shí)驗中,全卷積模型相比之前state-of-arts,在Human3.6 M上平均每個關(guān)節(jié)位置誤差小6mm,對應(yīng)誤差降低11%,模型在HumanEva-I中也有顯著改進(jìn)。

代碼和模型的下載地址:https://github.com/facebookre...

2. 背景介紹

我們的工作重點(diǎn)是視頻中的三維人體姿態(tài)估計。我們以最先進(jìn)的方法為基礎(chǔ),然后將問題描述為2D關(guān)鍵點(diǎn)檢測三維姿態(tài)估計,這種方法可能導(dǎo)致不同的3D姿態(tài)對應(yīng)相同的2D關(guān)鍵點(diǎn)。早期為解決這一問題主要通過RNN構(gòu)建時序信息,但是由于RNN的串行結(jié)構(gòu)無法多幀并行處理,因此本文提出一個完整的卷積架構(gòu),在二維關(guān)鍵點(diǎn)上執(zhí)行時序卷積用于視頻中準(zhǔn)確的三維姿態(tài)預(yù)測,該方法兼容任何二維關(guān)鍵點(diǎn)檢測器,并能通過空洞卷積有效地處理較大的上下文信息。與依賴RNNs的方法相比,它在計算復(fù)雜度和參數(shù)數(shù)量方面都提供了更高的精度、簡單性和效率。

在構(gòu)建一個高度精確和高效的架構(gòu)之后,接下來需要關(guān)注訓(xùn)練數(shù)據(jù),本文引入了半監(jiān)督訓(xùn)練的方案,因為3D姿態(tài)的監(jiān)督學(xué)習(xí)需要大量的帶標(biāo)簽的訓(xùn)練數(shù)據(jù),收集3D人體姿態(tài)標(biāo)簽需要昂貴的動作捕捉設(shè)備和長時間錄制。本文的方法的靈感來自于無監(jiān)督機(jī)器翻譯中的循環(huán)一致性,即翻譯到中間語言和翻譯回原始語言的往返應(yīng)該接近恒等函數(shù)。具體地說,使用現(xiàn)有的2D關(guān)鍵點(diǎn)檢測器為未標(biāo)記的視頻預(yù)測2D關(guān)鍵點(diǎn),然后預(yù)測3D姿態(tài),最后將它們映射回2D空間中。

本文創(chuàng)新點(diǎn)有兩個:(1)在網(wǎng)絡(luò)結(jié)構(gòu)方面,基于空洞時序卷積將2D關(guān)鍵點(diǎn)軌跡推理出3D人體姿態(tài),在計算量和模型參數(shù)量上遠(yuǎn)小于基于RNN的模型;(2)在訓(xùn)練數(shù)據(jù)方面,采用半監(jiān)督學(xué)習(xí)解決數(shù)據(jù)量不足的問題,相比于其他方法,該方法僅僅需要相機(jī)內(nèi)部參數(shù)(數(shù)據(jù)增強(qiáng)的過程中需要相機(jī)參數(shù)對ground-truth姿態(tài)進(jìn)行幾何變換),不需要2D標(biāo)簽或帶有外部攝像機(jī)參數(shù)的多視圖圖像。

image-20201126105219606

3. 相關(guān)工作

深度學(xué)習(xí)成功之前,大部分的三維姿態(tài)估計方法都是基于特征工程和骨骼和關(guān)節(jié)靈活性的假設(shè)。目前大多數(shù)的姿態(tài)估計方法是在二維姿態(tài)估計器的基礎(chǔ)上,建立了一種新的三維姿態(tài)估計器,然后 被提升到3D空間中。

視頻姿態(tài)估計,大多數(shù)以前的工作都是在單幀的背景下進(jìn)行的,但最近幾年利用視頻的時間信息來產(chǎn)生更可靠的預(yù)測,并降低對噪音的敏感性。最近,有人提出了LSTM序列到序列學(xué)習(xí)模型,該模型將視頻中的二維姿態(tài)序列編碼為固定大小的向量,然后解碼為三維姿態(tài)序列。然而,輸入和輸出序列具有相同的長度,2D姿態(tài)的確定性轉(zhuǎn)換是更自然的選擇。用seq2seq模型進(jìn)行的實(shí)驗表明,輸出姿勢在較長的序列上容易產(chǎn)生漂移。

4. 本文方法

4.1 時序空洞卷積模型

image-20201126112311029

我們的模型是一個具有殘差結(jié)構(gòu)的完全卷積的架構(gòu),它將一個2D姿態(tài)序列作為輸入,并通過時間卷積對其進(jìn)行轉(zhuǎn)換。卷積模型允許在批處理維度和時間維度上并行化,而RNNs不能在時間維度上并行化。在卷積模型中,無論序列長度如何,輸出和輸入之間的梯度路徑都是固定長度的,這可以緩解影響RNN的消失和爆炸梯度。卷積架構(gòu)也提供了對時間感受域的精確控制,這有利于建立三維姿態(tài)估計任務(wù)的時間依賴模型。此外,使用空洞卷積能夠?qū)﹂L期依賴關(guān)系進(jìn)行建模,同時也保持較高計算效率。(上圖表示帶有2D關(guān)鍵點(diǎn)的243幀圖像,經(jīng)過網(wǎng)絡(luò)推理得到3D關(guān)節(jié)點(diǎn))

4.2 半監(jiān)督訓(xùn)練方法

image-20201126113555405

本文引入了一種半監(jiān)督訓(xùn)練方法,以提高真實(shí)的標(biāo)記數(shù)據(jù)不足的情況下的模型的準(zhǔn)確性。我們利用未標(biāo)記的視頻,然后結(jié)合一個現(xiàn)成的2D關(guān)鍵點(diǎn)檢測器,來擴(kuò)展監(jiān)督損失函數(shù)一個反向投影損失項。解決了未標(biāo)記數(shù)據(jù)的自動編碼問題:編碼器(位姿估計器)根據(jù)二維關(guān)節(jié)坐標(biāo)進(jìn)行三維位姿估計,解碼器(投影層)將三維位姿投影回二維關(guān)節(jié)坐標(biāo)。當(dāng)來自解碼器的二維關(guān)節(jié)坐標(biāo)遠(yuǎn)離原始輸入時,訓(xùn)練就會受到懲罰。

上圖將監(jiān)督組件與充當(dāng)正則化器的非監(jiān)督組件組合在一起。這兩個目標(biāo)是共同優(yōu)化的,標(biāo)記數(shù)據(jù)占據(jù)Batch的前半部分,未標(biāo)記數(shù)據(jù)占據(jù)Batch的后半部分一半。對于標(biāo)記數(shù)據(jù),我們使用真實(shí)三維姿態(tài)作為目標(biāo),訓(xùn)練一個監(jiān)督損失。未標(biāo)記的數(shù)據(jù)用于實(shí)現(xiàn)自動編碼器損失,其中預(yù)測的3D姿態(tài)被投影回2D,然后檢查與輸入的一致性。

軌跡模型,由于透視投影,屏幕上的2D姿態(tài)都取決于軌跡(人體根節(jié)點(diǎn)整體位置,可以理解成人體中心點(diǎn))和3D姿態(tài)(所有關(guān)節(jié)點(diǎn)相對于根關(guān)節(jié)的位置)。目標(biāo)函數(shù)為每個關(guān)節(jié)的加權(quán)平均軌跡的位置誤差(WMPJPE)。

骨骼長度損失,添加一個軟約束來近似匹配未標(biāo)記batch的受試者與已標(biāo)記batch的受試者的平均骨長度。

5. 實(shí)驗論證

5.1 數(shù)據(jù)集與評價標(biāo)準(zhǔn)

數(shù)據(jù)集有兩個分別是Human3.6M,HumanEva-I,評價標(biāo)準(zhǔn)是Protocol 1: MPJPE(每個關(guān)節(jié)點(diǎn)的平均誤差), Protocol 2:P-MPJPE(與標(biāo)簽數(shù)據(jù)對準(zhǔn)后的平移、旋轉(zhuǎn)、縮放誤差),Protocol 3:N-MPJPE(只在比例上與真實(shí)標(biāo)簽相匹配)

5.2 2D姿態(tài)估計

2D姿態(tài)估計網(wǎng)絡(luò)模型:stacked hourglass detector, Mask R-CNN with ResNet-101-FPN,CPN

5.3 3D姿態(tài)估計

image-20201126140916717

image-20201126141002629

image-20201126141144006

6. 總結(jié)

介紹了一個簡單的完全卷積模型用于視頻中三維人體姿態(tài)估計。網(wǎng)絡(luò)結(jié)構(gòu)利用時間信息在2D關(guān)鍵點(diǎn)軌跡上進(jìn)行空洞卷積。這項工作的第二個貢獻(xiàn)是反向投影,這是一種半監(jiān)督訓(xùn)練方法,在標(biāo)記數(shù)據(jù)稀缺的情況下提高性能。該方法適用于未標(biāo)記的視頻,只需要內(nèi)在的攝像機(jī)參數(shù),使其在運(yùn)動捕捉具有挑戰(zhàn)性的場景中切實(shí)可行。

7. 論文復(fù)現(xiàn)

推薦閱讀

本文章著作權(quán)歸作者所有,任何形式的轉(zhuǎn)載都請注明出處。更多動態(tài)濾波,圖像質(zhì)量,超分辨相關(guān)請關(guān)注我的專欄深度學(xué)習(xí)從入門到精通。

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3876

    瀏覽量

    140797
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5587

    瀏覽量

    123733
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓(xùn)練并保存,就可以用于對新圖像進(jìn)行推理和預(yù)測。要使用生成的模型進(jìn)行推理,可以按照以下步驟進(jìn)行操作: 1.
    發(fā)表于 10-22 07:03

    玩轉(zhuǎn) KiCad 3D模型的使用

    “ ?本文將帶您學(xué)習(xí)如何將 3D 模型與封裝關(guān)聯(lián)、文件嵌入,講解 3D 查看器中的光線追蹤,以及如何使用 CLI 生成 PCBA 的 3D 模型。? ” ? 在日常的 PCB 設(shè)計中,我們大部分
    的頭像 發(fā)表于 09-16 19:21 ?7099次閱讀
    玩轉(zhuǎn) KiCad <b class='flag-5'>3D</b>模型的使用

    AD 3D封裝庫資料

    ?AD ?PCB 3D封裝
    發(fā)表于 08-27 16:24 ?2次下載

    3D打印能用哪些材質(zhì)?

    3D打印的材質(zhì)有哪些?不同材料決定了打印效果、強(qiáng)度、用途乃至安全性,本文將介紹目前主流的3D打印材質(zhì),幫助你找到最適合自己需求的材料。
    的頭像 發(fā)表于 07-28 10:58 ?1648次閱讀
    <b class='flag-5'>3D</b>打印能用哪些材質(zhì)?

    如何在樹莓派 AI HAT+上進(jìn)行YOLO姿態(tài)估計?

    大家好,接下來會為大家開一個樹莓派5和YOLO的連載專題。內(nèi)容包括四個部分:在樹莓派5上使用YOLO進(jìn)行物體和動物識別-入門指南在樹莓派5上開啟YOLO姿態(tài)估計識別之旅!如何在樹莓派AIHAT+上進(jìn)
    的頭像 發(fā)表于 07-20 20:34 ?430次閱讀
    如何在樹莓派 AI HAT+上進(jìn)行YOLO<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>?

    3D AD庫文件

    3D庫文件
    發(fā)表于 05-28 13:57 ?6次下載

    2025年3D工業(yè)相機(jī)選型及推薦

    3D工業(yè)相機(jī)的選型
    的頭像 發(fā)表于 05-21 16:49 ?811次閱讀
    2025年<b class='flag-5'>3D</b>工業(yè)相機(jī)選型及推薦

    基于RV1126開發(fā)板的人臉姿態(tài)估計算法開發(fā)

    人臉姿態(tài)估計是通過對一張人臉圖像進(jìn)行分析,獲得臉部朝向的角度信息。姿態(tài)估計是多姿態(tài)問題中較為關(guān)鍵的步驟。一般可以用旋轉(zhuǎn)矩陣、旋轉(zhuǎn)向量、四元數(shù)
    的頭像 發(fā)表于 04-14 17:21 ?1891次閱讀
    基于RV1126開發(fā)板的人臉<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計</b>算法開發(fā)

    3D閃存的制造工藝與挑戰(zhàn)

    3D閃存有著更大容量、更低成本和更高性能的優(yōu)勢,本文介紹了3D閃存的制造工藝與挑戰(zhàn)。
    的頭像 發(fā)表于 04-08 14:38 ?1609次閱讀
    <b class='flag-5'>3D</b>閃存的制造工藝與挑戰(zhàn)

    英倫科技裸眼3D便攜屏有哪些特點(diǎn)?

    英倫科技裸眼3D便攜屏采用了領(lǐng)先的光場裸眼3D技術(shù),無需佩戴3D眼鏡即可觀看,給用戶帶來裸眼看3D視頻的體驗,為用戶帶來更加便捷和自由的視覺享受。
    的頭像 發(fā)表于 02-06 14:20 ?697次閱讀
    英倫科技裸眼<b class='flag-5'>3D</b>便攜屏有哪些特點(diǎn)?

    SciChart 3D for WPF圖表庫

    SciChart 3D for WPF 是一個實(shí)時、高性能的 WPF 3D 圖表庫,專為金融、醫(yī)療和科學(xué)應(yīng)用程序而設(shè)計。非常適合需要極致性能和豐富的交互式 3D 圖表的項目。 使用我們
    的頭像 發(fā)表于 01-23 13:49 ?1126次閱讀
    SciChart <b class='flag-5'>3D</b> for WPF圖表庫

    騰訊混元3D AI創(chuàng)作引擎正式發(fā)布

    近日,騰訊公司宣布其自主研發(fā)的混元3D AI創(chuàng)作引擎已正式上線。這一創(chuàng)新性的創(chuàng)作工具將為用戶帶來前所未有的3D內(nèi)容創(chuàng)作體驗,標(biāo)志著騰訊在AI技術(shù)領(lǐng)域的又一重大突破。 混元3D AI創(chuàng)作引擎憑借其強(qiáng)大
    的頭像 發(fā)表于 01-23 10:33 ?854次閱讀

    騰訊混元3D AI創(chuàng)作引擎正式上線

    近日,騰訊公司宣布其自主研發(fā)的混元3D AI創(chuàng)作引擎已正式上線。這一創(chuàng)新性的創(chuàng)作工具,標(biāo)志著騰訊在3D內(nèi)容生成領(lǐng)域邁出了重要一步。 混元3D AI創(chuàng)作引擎的核心功能極為強(qiáng)大,用戶只需通過簡單的提示詞
    的頭像 發(fā)表于 01-22 10:26 ?831次閱讀

    uvled光固化3d打印技術(shù)

    說到UVLED光固化3D打印技術(shù),那可是當(dāng)下3D打印領(lǐng)域的一股清流??!這項技術(shù)利用紫外線和光固化樹脂來制造3D打印模型,原理簡單又高效。UVLED光固化3D打印,采用的是逐層固化的方式
    的頭像 發(fā)表于 12-24 13:13 ?1093次閱讀
    uvled光固化<b class='flag-5'>3d</b>打印技術(shù)

    3D超高壓電動試壓泵

    3D
    jiaoyumeng
    發(fā)布于 :2024年12月03日 16:38:42