chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個(gè)用于6D姿態(tài)估計(jì)和跟蹤的統(tǒng)一基礎(chǔ)模型

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-12-19 09:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

0. 筆者個(gè)人體會

今天筆者將為大家分享NVIDIA的最新開源方案FoundationPose,是一個(gè)用于 6D 姿態(tài)估計(jì)和跟蹤的統(tǒng)一基礎(chǔ)模型。只要給出CAD模型或少量參考圖像,F(xiàn)oundationPose就可以在測試時(shí)立即應(yīng)用于新物體,無需任何微調(diào),關(guān)鍵是各項(xiàng)指標(biāo)明顯優(yōu)于專為每個(gè)任務(wù)設(shè)計(jì)的SOTA方案。

下面一起來閱讀一下這項(xiàng)工作,文末附論文和代碼鏈接~

1. 效果展示

FoundationPose實(shí)現(xiàn)了新物體的6D姿態(tài)估計(jì)和跟蹤,支持基于模型和無模型設(shè)置。在這四個(gè)任務(wù)中的每一個(gè)上,F(xiàn)oundationPose都優(yōu)于專用任務(wù)的SOTA方案。(·表示僅RGB,×表示RGBD)。這里也推薦工坊推出的新課程《單目深度估計(jì)方法:算法梳理與代碼實(shí)現(xiàn)》。

adfd5652-9dfa-11ee-8b88-92fbcf53809c.jpg

2. 具體原理是什么?

為減少大規(guī)模訓(xùn)練的人工工作,F(xiàn)oundationPose利用3D模型數(shù)據(jù)庫、大型語言模型和擴(kuò)散模型等新技術(shù),開發(fā)了一種新的合成數(shù)據(jù)生成Pipeline。為了彌補(bǔ)無模型和基于模型的設(shè)置之間的差距,F(xiàn)oundationPose利用以對象為中心的神經(jīng)場來進(jìn)行隨后的渲染和新視圖RGBD渲染。

對于姿態(tài)估計(jì),首先在物體周圍均勻地初始化全局姿態(tài),然后通過細(xì)化網(wǎng)絡(luò)對其進(jìn)行細(xì)化。最后將改進(jìn)的位姿轉(zhuǎn)發(fā)給姿態(tài)選擇模塊,預(yù)測位姿的分?jǐn)?shù),輸出得分最高的位姿。

ae1028e0-9dfa-11ee-8b88-92fbcf53809c.jpg

3. 和其他SOTA方法對比如何?

YCB-Video數(shù)據(jù)集上Model-free方案的位姿估計(jì)定量結(jié)果對比。

ae219558-9dfa-11ee-8b88-92fbcf53809c.jpg

YCB-Video數(shù)據(jù)集上位姿跟蹤的定量對比。這里也推薦工坊推出的新課程《單目深度估計(jì)方法:算法梳理與代碼實(shí)現(xiàn)》。

ae35a2aa-9dfa-11ee-8b88-92fbcf53809c.jpg

對更多實(shí)驗(yàn)結(jié)果和文章細(xì)節(jié)感興趣的讀者,可以閱讀一下論文原文~

4. 論文信息

標(biāo)題:FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects

作者:Bowen Wen, Wei Yang, Jan Kautz, Stan Birchfield

機(jī)構(gòu):NVIDIA

原文鏈接:https://arxiv.org/abs/2312.08344

代碼鏈接:https://github.com/NVlabs/FoundationPose








審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5431

    瀏覽量

    108283
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    818

    瀏覽量

    61043

原文標(biāo)題:通用性超強(qiáng)!同時(shí)實(shí)現(xiàn)6D位姿估計(jì)和跟蹤!

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    ANSA人體模型姿態(tài)調(diào)整工具的使用案例

    中國體征人體數(shù)字模型(AC-HUMs)是中國汽研主持研發(fā)的人體有限元模型。BETA CAE Systems與中國汽研保持緊密合作,前、后處理軟件(ANSA/META)會全面支持AC-HUMs系列模型。在軟件中提供對應(yīng)工具
    的頭像 發(fā)表于 09-28 15:44 ?450次閱讀
    ANSA人體<b class='flag-5'>模型</b><b class='flag-5'>姿態(tài)</b>調(diào)整工具的使用案例

    ANSA人體模型姿態(tài)調(diào)整工具介紹

    ANSA的人體模型姿態(tài)調(diào)整工具(HBM Articulation Tool)通過網(wǎng)格變形技術(shù)實(shí)現(xiàn)基于人體不同部位進(jìn)行調(diào)節(jié),定位人體模型最終的姿態(tài)。
    的頭像 發(fā)表于 09-28 15:40 ?460次閱讀
    ANSA人體<b class='flag-5'>模型</b><b class='flag-5'>姿態(tài)</b>調(diào)整工具介紹

    【2025嵌賽等獎(jiǎng)】|基于三維姿態(tài)估計(jì)與邊緣智能的獨(dú)居老人監(jiān)護(hù)系統(tǒng)

    在2025年嵌入式大賽全國總決賽中,山西大學(xué)“慧眸無憂幫”團(tuán)隊(duì)?wèi){借參賽項(xiàng)目“瞳芯頤護(hù)——基于三維姿態(tài)估計(jì)與邊緣智能的獨(dú)居老人監(jiān)護(hù)系統(tǒng)”,舉斬獲全國等獎(jiǎng)。該團(tuán)隊(duì)由計(jì)算機(jī)與信息技術(shù)學(xué)院
    的頭像 發(fā)表于 09-17 09:19 ?5617次閱讀
    【2025嵌賽<b class='flag-5'>一</b>等獎(jiǎng)】|基于三維<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>與邊緣智能的獨(dú)居老人監(jiān)護(hù)系統(tǒng)

    如何使用樹莓派+OpenCV實(shí)現(xiàn)姿態(tài)估計(jì)和面部特征點(diǎn)追蹤?

    大家好,這是個(gè)樹莓派和OpenCV的連載專題。使用樹莓派與OpenCV實(shí)現(xiàn)姿態(tài)估計(jì)和面部特征點(diǎn)追蹤使用樹莓派與OpenCV實(shí)現(xiàn)面部和運(yùn)動(dòng)追蹤的云臺系統(tǒng)使用樹莓派和OpenCV實(shí)現(xiàn)手部
    的頭像 發(fā)表于 08-13 17:44 ?728次閱讀
    如何使用樹莓派+OpenCV實(shí)現(xiàn)<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>和面部特征點(diǎn)追蹤?

    如何在樹莓派 AI HAT+上進(jìn)行YOLO姿態(tài)估計(jì)

    大家好,接下來會為大家開個(gè)樹莓派5和YOLO的連載專題。內(nèi)容包括四個(gè)部分:在樹莓派5上使用YOLO進(jìn)行物體和動(dòng)物識別-入門指南在樹莓派5上開啟YOLO姿態(tài)
    的頭像 發(fā)表于 07-20 20:34 ?402次閱讀
    如何在樹莓派 AI HAT+上進(jìn)行YOLO<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>?

    在樹莓派5上開啟YOLO姿態(tài)估計(jì)識別之旅!

    大家好,接下來會為大家開個(gè)樹莓派5和YOLO的連載文章。內(nèi)容包括四個(gè)部分:在樹莓派5上使用YOLO進(jìn)行物體和動(dòng)物識別-入門指南在樹莓派5上開啟YOLO人體姿態(tài)
    的頭像 發(fā)表于 07-18 15:31 ?1230次閱讀
    在樹莓派5上開啟YOLO<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>識別之旅!

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過程對顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來了挑戰(zhàn)。為了解決這問題,本文將探討大模型推理顯存和
    發(fā)表于 07-03 19:43

    基于RV1126開發(fā)板的人臉姿態(tài)估計(jì)算法開發(fā)

    人臉姿態(tài)估計(jì)是通過對張人臉圖像進(jìn)行分析,獲得臉部朝向的角度信息。姿態(tài)估計(jì)是多姿態(tài)問題中較為關(guān)鍵
    的頭像 發(fā)表于 04-14 17:21 ?1875次閱讀
    基于RV1126開發(fā)板的人臉<b class='flag-5'>姿態(tài)</b><b class='flag-5'>估計(jì)</b>算法開發(fā)

    使用人體姿勢估算-3d-0001模型執(zhí)行human_pose_estimation_demo.exe時(shí)遇到錯(cuò)誤怎么解決?

    已OpenVINO 工具套件 2020.3 安裝。 下載并轉(zhuǎn)換 人體姿勢估算-3d-0001 模型。 構(gòu)建 人類姿態(tài)估算 C++ 演示 應(yīng)用程序。 運(yùn)行演示時(shí)遇到錯(cuò)誤: [ ERROR ] expected to have 2
    發(fā)表于 03-05 07:45

    M1攜手6D Technologies云原生BSS平臺實(shí)現(xiàn)轉(zhuǎn)型

    ,M1 Limited的預(yù)付費(fèi)和Maxx服務(wù)已成功遷移至尖端數(shù)字BSS平臺6D Technologies Canvas。 在15個(gè)月的時(shí)間里,6D Technologies將M1的所有預(yù)付費(fèi)和Maxx
    的頭像 發(fā)表于 01-15 15:42 ?628次閱讀

    Todoist鍵時(shí)間跟蹤

    過三個(gè)簡單的步驟將您的Todoist工作區(qū)連接到TMetric時(shí)間跟蹤應(yīng)用。通過單擊鼠標(biāo)跟蹤執(zhí)行任務(wù)所花費(fèi)的時(shí)間。為項(xiàng)目獲取廣泛而精確的報(bào)告。 添加計(jì)時(shí)器按鈕到Todoist任務(wù)中 完成這三個(gè)
    的頭像 發(fā)表于 01-03 11:08 ?654次閱讀
    Todoist<b class='flag-5'>一</b>鍵時(shí)間<b class='flag-5'>跟蹤</b>

    KerasHub統(tǒng)一、全面的預(yù)訓(xùn)練模型

    深度學(xué)習(xí)領(lǐng)域正在迅速發(fā)展,在處理各種類型的任務(wù)中,預(yù)訓(xùn)練模型變得越來越重要。Keras 以其用戶友好型 API 和對易用性的重視而聞名,始終處于這動(dòng)向的前沿。Keras 擁有專用的內(nèi)容庫,如用于
    的頭像 發(fā)表于 12-20 10:32 ?686次閱讀

    CNN, RNN, GNN和Transformer模型統(tǒng)一表示和泛化誤差理論分析

    背景介紹 本文是基于我們之前的 RPN(Reconciled Polynomial Network)研究的后續(xù)工作。在此前的研究中,我們提出了 RPN 這通用模型架構(gòu),其包含三個(gè)組件函數(shù):數(shù)據(jù)擴(kuò)展
    的頭像 發(fā)表于 12-06 11:31 ?1931次閱讀
    CNN, RNN, GNN和Transformer<b class='flag-5'>模型</b>的<b class='flag-5'>統(tǒng)一</b>表示和泛化誤差理論分析

    常見人體姿態(tài)評估顯示方式的兩種方式

    ,基于Deeplabv3+ 與ResNet34構(gòu)建的一個(gè)人體語義分割模型。 火柴人 主要是基于關(guān)鍵點(diǎn)的人體姿態(tài)評估顯示方式,基于YOLOv8等人體姿態(tài)評估的關(guān)鍵點(diǎn)
    的頭像 發(fā)表于 11-11 11:21 ?902次閱讀
    常見人體<b class='flag-5'>姿態(tài)</b>評估顯示方式的兩種方式

    如何利用TPA2012D2的輸出端和阻抗值4OHM的喇叭建個(gè)cadence仿真模型?

    最近想用tlv320aic3106加tpa2012d2設(shè)計(jì)個(gè)音頻設(shè)備,但是不太懂各個(gè)傳輸路徑上應(yīng)該加什么樣的濾波電容,想請教下如何利用TPA2012
    發(fā)表于 11-07 07:42