chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

中山大學HCP實驗室PAMI論文:低成本、可擴展的三維人體位姿預(yù)測應(yīng)用

DPVg_AI_era ? 來源:lq ? 2019-01-26 09:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

論文提出的3D人體位姿預(yù)測框架:先使用一個輕量級CNN提取2D人體位姿特征和粗略估計3D人體位姿,然后用RNN學習時序相關(guān)性以得到流暢的三維人體位姿初步預(yù)測結(jié)果,最后使用自監(jiān)督學習引導機制,根據(jù)三維幾何一致性,優(yōu)化從2D到3D的預(yù)測結(jié)果。項目主頁:http://www.sysu-hcp.net/3d_pose_ssl/

中山大學使用自監(jiān)督學習精準預(yù)測三維人體位姿。新方法減少了對3D標記數(shù)據(jù)的依賴,還能通過使用現(xiàn)有的大量2D標記數(shù)據(jù)提高最終預(yù)測結(jié)果,實現(xiàn)低成本、可擴展的3D人體位姿估計實際應(yīng)用。

3D人體位姿估計是當前的一個熱點研究課題,也具有廣泛的應(yīng)用潛力。

深度神經(jīng)網(wǎng)絡(luò)已經(jīng)在2D人體位姿估計上取得了優(yōu)異的結(jié)果,如果想使用深度學習,在3D人體位姿估計中也取得同樣的效果,那么首先就需要大量的3D人體位姿標記數(shù)據(jù)。

但問題是,現(xiàn)在沒有大量帶精準標記的3D人體位姿數(shù)據(jù)。

在一篇最新發(fā)表于《IEEE模式分析與機器智能會刊》(PAMI) 的論文[1]中,中山大學的研究人員提出了一種新的方法,讓計算機通過自監(jiān)督學習的方式,精準預(yù)測視頻片段中的三維人體位姿,大幅減少對3D標記數(shù)據(jù)的依賴。

“我們通過有效結(jié)合二維時空關(guān)系和三維幾何知識,提出了一個由自監(jiān)督學習引導的快速精準三維人體位姿估計方法。”論文一作、目前在加州大學洛杉磯分校 (UCLA) 朱松純教授實驗室擔任博士后研究員的王可澤博士告訴新智元。在完成這篇論文時,王可澤還是中山大學和香港理工大學的博士生,導師是中山大學HCP人機物智能融合實驗室的林倞教授 (林教授也參與了這項工作) 和香港理工大學的張磊博士。

新方法在Human3.6M基準測試中的一些可視化結(jié)果。(a)為2D-to-2D位姿變換模塊估計的中間3D人體位姿,(b)為3D-to-2D位姿映射模塊細化的最終3D人體位姿,(c)為ground-truth。估計的3D位姿被重新映射到圖像中,并在側(cè)面 (圖像旁邊) 顯示出來。如圖所示,與(a)相比,(b)中預(yù)測的3D位姿得到了顯著的修正。紅色和綠色分別表示人體左側(cè)和右側(cè)。來源:論文《自監(jiān)督學習引導的人體三維位姿估計》[1]

“該方法采用輕量級的神經(jīng)網(wǎng)絡(luò),有效減少了計算量,并克服了三維人體位姿標注數(shù)據(jù)不夠豐富的難點,能在實際應(yīng)用場景中流暢穩(wěn)定地進行三維人體位姿預(yù)測?!?/p>

在單個的Nvidia GTX1080 GPU上運行時,新方法處理一幅圖像只需要51毫秒,而其他方法需要880毫秒。

使用自監(jiān)督學習,減少對3D標記數(shù)據(jù)的依賴

這篇論文題為《自監(jiān)督學習引導的人體三維位姿估計》(3D Human Pose Machines with Self-supervised Learning),作者是王可澤,林倞,江宸瀚,錢晨和魏朋旭。

研究人員向新智元介紹,他們這項工作的背景,是現(xiàn)有的基于彩色圖像視頻數(shù)據(jù)的三維人體位姿估計研究,在實際場景應(yīng)用中有兩大明顯的不足:

一是所需要的計算量大:當前,絕大多數(shù)的現(xiàn)有三維人體位姿估計方法,都依賴最先進的二維人體位姿估計來獲得精準的二維人體位姿,然后再構(gòu)建神經(jīng)網(wǎng)絡(luò),實現(xiàn)從2D到3D人體位姿的映射。由于采用的二維人體位姿估計方法往往需要龐大的計算量,再加上所構(gòu)建的神經(jīng)網(wǎng)絡(luò)自身的運算開銷,難以滿足三維人體位姿估計在實際應(yīng)用中的時間需求;

二是應(yīng)用效果不理想:當前的三維人體位姿數(shù)據(jù)集都是在受控的實驗環(huán)境下創(chuàng)建的 (攝像機視角固定、背景單一),所包含的三維標注信息不夠豐富,不能全面反映真實生活場景,使得現(xiàn)有方法所預(yù)測出的三維人體位姿質(zhì)量參差不齊,魯棒性差。

為了解決上述的問題,研究人員進行了深入的研究和分析,嘗試利用海量的二維人體位姿數(shù)據(jù)來彌補三維標注信息不豐富的問題。

同時,他們受二維和三維空間彼此存在的聯(lián)系啟發(fā),根據(jù)三維人體位姿的映射是二維人體位姿這一幾何特性,結(jié)合之前的自監(jiān)督學習工作(參考王可澤博士等人此前的論文[2]),制定了2D到3D變換和3D到2D映射的自監(jiān)督學習任務(wù)。

這一關(guān)鍵的2D和3D相互轉(zhuǎn)換自監(jiān)督學習模塊架構(gòu)示意如下:

3D到2D人體位姿映射模塊訓練階段示意圖

3D到2D人體位姿映射模塊測試階段示意圖

在這項研究中,作者使用MPII數(shù)據(jù)集,從圖像中提取2D人體位姿。然后,使用另一個名為“Human3.6M”的數(shù)據(jù)集,提取3D的ground truth數(shù)據(jù)。Human3.6M數(shù)據(jù)集包含有360萬張在實驗室拍攝的照片,任務(wù)包括跑步、散步、吸煙、吃飯,等等。

初始化后,他們將預(yù)測的2D人體位姿和3D人體位姿替換為2D和3D的 ground-truth,從而以自監(jiān)督學習的方式優(yōu)化模型。

3D-to-2D人體位姿映射模塊的學習目標,就是將3D人體位姿的2D映射與預(yù)測的2D人體位姿兩者間的差異最小化,以實現(xiàn)對中間3D人體位姿預(yù)測的雙向校正 (或細化)。

“模型采用了序列訓練的方法來捕獲人體多個部位之間的長期時間一致性,并通過一種新的自監(jiān)督校正機制進一步增強這種一致性,這包含兩個對偶學習任務(wù),即2D-to-3D位姿變換和3D-to-2D位姿映射,從而生成幾何一致的3D位姿預(yù)測。”

經(jīng)過自監(jiān)督校正以后的結(jié)果 (Ours) 比沒有經(jīng)過校正的 (Ours w/o self-correction) 更接近 Ground-truth。來源:論文

未來方向:非受限條件下三維人體位姿預(yù)測

研究人員在論文中指出,這項工作的主要貢獻有三方面:

提出了一種新的模型,可以學習整合豐富的時空長程依賴性和3D幾何約束,而不是依賴于特定的手動定義的身體平滑度或運動學約束;

開發(fā)了一種簡單有效的自監(jiān)督校正機制,以結(jié)合3D位姿幾何結(jié)構(gòu)信息;這一創(chuàng)新機制也可能啟發(fā)其他3D視覺任務(wù);

提出了自監(jiān)督校正機制,使模型能夠使用足夠的2D人體位姿數(shù)據(jù),顯著提高3D人體位姿估計的性能。

新方法 (Ours,紅框標識) 顯著優(yōu)于其他同類方法,綠色代表右側(cè)手腳,紅色代表左側(cè) (下同):最右邊一列為Ground-truth;使用Human3.6M數(shù)據(jù)集。

新方法 (Ours) 與ICCV-17微軟危夷晨組在MPII數(shù)據(jù)集上的結(jié)果比較,后者使用弱監(jiān)督遷移學習將2D和3D標記混合在一個統(tǒng)一的深度學習框架里,在2D和3D基準上都取得了較好的結(jié)果。新方法在3D預(yù)測上更進一步。

自監(jiān)督學習的價值顯然是人工智能研究的一個重點。

其他方法也采用了類似的“弱監(jiān)督”方法來預(yù)測位姿,甚至捕捉人體運動。例如,加州大學伯克利分校Sergey Levine教授的機器人實驗室去年10月發(fā)表論文稱,他們能夠訓練模擬機器人模仿人類活動,只使用YouTube視頻的無標注數(shù)據(jù)。中山大學的這一工作未來或許能與伯克利的方法實現(xiàn)某種結(jié)合。

研究人員告訴新智元,接下來,“我們會針對于實際非受限場景中更加復雜多變的三維人體位姿預(yù)測問題,開展進一步研究;另外,進一步優(yōu)化我們的方法,希望能在移動端實現(xiàn)實時精準的預(yù)測效果”。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    3006

    瀏覽量

    114495
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4832

    瀏覽量

    107376

原文標題:中山大學新突破:自監(jiān)督學習實現(xiàn)精準3D人體姿態(tài)估計

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    中山大學匯編語言視頻教程鏈接

    中山大學匯編語言視頻教程!
    發(fā)表于 11-15 14:12

    [招聘]中山大學中山眼科中心招聘工程師

    中山大學中山眼科中心為國內(nèi)排名第一的眼科中心,也是唯一的眼科學國家重點實驗室的依托單位,現(xiàn)組建成立廣東省眼科診斷與治療新技術(shù)工程中心,致力于眼光學成像和血管功能成像技術(shù)的探索,包括新型OCT的研發(fā)
    發(fā)表于 06-24 15:06

    實驗室無線充電系統(tǒng)_論文

    實驗室無線充電系統(tǒng)_論文
    發(fā)表于 01-24 17:35

    歐姆龍公司攜手中山大學建自動化實驗室

    歐姆龍公司攜手中山大學建自動化實驗室 近日,全球自動化、傳感和控制領(lǐng)域的領(lǐng)先廠商歐姆龍公司與有80年歷史
    發(fā)表于 08-12 17:58 ?589次閱讀

    中山大學研發(fā)出首個基于人工智能的眼病篩查指導系統(tǒng)

    中山大學中山眼科中心9日發(fā)布消息稱,該中心人工智能與大數(shù)據(jù)科基于10萬余例超廣域眼底彩照,研發(fā)出首個基于人工智能的眼病篩查指導系統(tǒng)。
    發(fā)表于 01-10 09:55 ?1256次閱讀

    中山大學應(yīng)用基于RFID技術(shù)的智能圖書館

    中山大學是首批國家“雙一流”A類、“985工程”、“211工程”的綜合性全國知名高校,作為其重要組成部分之一的中山大學圖書館是一個擁有1個主館和4個分館的圖書館群,圖書館擁有百余萬冊(件)館藏,其中包括上萬冊的珍稀善本。
    發(fā)表于 08-14 14:49 ?1806次閱讀

    中山大學提出新型行人重識別方法和史上最大最新評測基準

    行人重識別,又稱行人再識別,是利用 CV 技術(shù)判斷圖像或視頻序列中是否存在特定行人的技術(shù)。常規(guī)的行人重識別方法往往需要高昂的人工標注成本,計算復雜度也很大。在本文中,中山大學研究者提出的弱監(jiān)督行人重
    的頭像 發(fā)表于 01-05 14:29 ?3111次閱讀
    <b class='flag-5'>中山大學</b>提出新型行人重識別方法和史上最大最新評測基準

    高校大學數(shù)字孿生教學實驗室,虛擬仿真實訓系統(tǒng)中心

    北京高校大學學院數(shù)字孿生教學實驗室,虛擬仿真實訓系統(tǒng)中心,數(shù)字孿生校園場景建設(shè)方案。北京高校大學學院數(shù)字孿生實驗室教學平臺建設(shè)的主要工作:(1)通過
    的頭像 發(fā)表于 05-26 10:43 ?2187次閱讀
    高校<b class='flag-5'>大學</b>數(shù)字孿生教學<b class='flag-5'>實驗室</b>,虛擬仿真實訓系統(tǒng)中心

    三維天地助力計量實驗室全方位資源管理

    企業(yè)內(nèi)部的計量實驗室肩負著為企業(yè)內(nèi)部儀器設(shè)備提供周期性校準或委外檢定校準的任務(wù),但如何確保按時、及時地進行這些校準任務(wù),一直是困擾企業(yè)內(nèi)計量實驗室的挑戰(zhàn)。 北京三維天地科技股份有限公司長期以來專注于
    的頭像 發(fā)表于 12-20 22:43 ?683次閱讀
    <b class='flag-5'>三維</b>天地助力計量<b class='flag-5'>實驗室</b>全方位資源管理

    浙江大學機械工程學院—思看科技三維掃描實踐教學實驗室正式揭牌!

    2024年4月22日,“浙江大學機械工程學院——思看科技三維掃描實踐教學實驗室”揭牌暨簽約儀式在浙江大學機械工程學院實驗教學中心成功舉行。
    的頭像 發(fā)表于 04-25 18:25 ?1712次閱讀
    浙江<b class='flag-5'>大學</b>機械工程學院—思看科技<b class='flag-5'>三維</b>掃描實踐教學<b class='flag-5'>實驗室</b>正式揭牌!

    中山大學中山眼科中心與華為聯(lián)合發(fā)布ChatZOC眼科大模型

    [2024年6月6日]今天是第29個全國愛眼日,中山大學中山眼科中心與華為技術(shù)有限公司攜手合作,聯(lián)合發(fā)布基于人工智能技術(shù)研究構(gòu)建的眼科大模型ChatZOC,為守護人民群眾眼健康開辟新路徑。 中山大學
    的頭像 發(fā)表于 06-06 19:04 ?3051次閱讀

    千呼萬喚始出來!中山大學-創(chuàng)龍教儀RK3568教學實驗室項目正式落地!

    1?院校簡介//中山大學由孫中山先生創(chuàng)辦,有著一百多年辦學傳統(tǒng)。中山大學是教育部直屬“雙一流”高校(首批985和211重點高校)。學校學科門類覆蓋面廣,是教育部直屬高校中學科門類最齊全的學校之一。在
    的頭像 發(fā)表于 11-28 01:02 ?1015次閱讀
    千呼萬喚始出來!<b class='flag-5'>中山大學</b>-創(chuàng)龍教儀RK3568教學<b class='flag-5'>實驗室</b>項目正式落地!

    中山大學:在柔性觸覺傳感電子皮膚研究進展

    【研究內(nèi)容】 ? ? 中山大學衣芳教授團隊在" 科學通報"期刊上發(fā)表了題為“ 柔性觸覺傳感電子皮膚研究進展”的最新論文。本文主要綜述了近年來柔性觸覺傳感電子皮膚的研究進展, 重點歸納總結(jié)了上述
    的頭像 發(fā)表于 02-12 17:03 ?1930次閱讀
    <b class='flag-5'>中山大學</b>:在柔性觸覺傳感電子皮膚研究進展

    紫光同創(chuàng)攜手中山大學助力集成電路產(chǎn)業(yè)創(chuàng)新人才培養(yǎng)

    近日,紫光同創(chuàng)受邀參與中山大學電子與信息工程學院(微電子學院)開設(shè)的《專業(yè)與行業(yè)認知》課程,為現(xiàn)場近100名莘莘學子帶來了一場精彩的FPGA主題講座,助力集成電路產(chǎn)業(yè)創(chuàng)新人才培養(yǎng)。
    的頭像 發(fā)表于 06-20 17:36 ?1285次閱讀

    洲明數(shù)字文化科技與中山大學旅游學院達成戰(zhàn)略合作

    近日,洲明集團旗下AI子公司——深圳市洲明數(shù)字文化科技有限公司與中山大學旅游學院正式簽署戰(zhàn)略合作意向書。
    的頭像 發(fā)表于 06-23 15:46 ?926次閱讀