chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SHERF:可泛化可驅(qū)動(dòng)人體神經(jīng)輻射場(chǎng)的新方法

CVer ? 來(lái)源:CVer ? 2023-08-15 11:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人體神經(jīng)輻射場(chǎng)的目標(biāo)是從 2D 人體圖片中恢復(fù)高質(zhì)量的 3D 數(shù)字人并加以驅(qū)動(dòng),從而避免耗費(fèi)大量人力物力去直接獲取 3D 人體幾何信息。這個(gè)方向的探索對(duì)于一系列應(yīng)用場(chǎng)景,比如虛擬現(xiàn)實(shí)和輔助現(xiàn)實(shí)場(chǎng)景,有著非常大潛在性的影響。

現(xiàn)有人體神經(jīng)輻射場(chǎng)生成和驅(qū)動(dòng)技術(shù)主要可以分為兩類。

第一類技術(shù)利用單目或者多目人體視頻去重建和驅(qū)動(dòng) 3D 數(shù)字人。這類技術(shù)主要是針對(duì)特定數(shù)字人的建模和驅(qū)動(dòng),優(yōu)化耗時(shí)大,缺乏泛化到大規(guī)模數(shù)字人重建上的能力。

第二類技術(shù)為了提升 3D 數(shù)字人重建的效率。提出利用多視角人體圖片作為輸入去重建人體神經(jīng)輻射場(chǎng)。

盡管這第二類方法在 3D 人體重建上取得了一定的效果,這類方法往往需要特定相機(jī)角度下的多目人體圖片作為輸入。在現(xiàn)實(shí)生活中,我們往往只能獲取到任意相機(jī)角度下人體的一張圖片,給這類技術(shù)的應(yīng)用提出了挑戰(zhàn)。

在 ICCV2023 上,南洋理工大學(xué) - 商湯科技聯(lián)合研究中心 S-Lab 團(tuán)隊(duì)提出了基于單張圖片的可泛化可驅(qū)動(dòng)人體神經(jīng)輻射場(chǎng)方法 SHERF

SHERF 可以基于用戶輸入的一張任意相機(jī)角度 3D 人體圖片,該角度下相機(jī)和人體動(dòng)作體型(SMPL)參數(shù),以及給定目標(biāo)輸出空間下任意相機(jī)參數(shù)和人體動(dòng)作體型(SMPL)參數(shù),重建并驅(qū)動(dòng)該 3D 數(shù)字人。本方法旨在利用任意相機(jī)角度下人體的一張圖片去重建和驅(qū)動(dòng) 3D 人體神經(jīng)輻射場(chǎng)。

cb20cf1a-3b1d-11ee-9e74-dac502259ad0.png

圖 1

基本原理

人體神經(jīng)輻射場(chǎng)重建和驅(qū)動(dòng)主要分為五個(gè)步驟(如圖 2 所示)。

cb807654-3b1d-11ee-9e74-dac502259ad0.png

圖 2

第一步為目標(biāo)空間(target space)到標(biāo)準(zhǔn)空間(canonical space)的坐標(biāo)轉(zhuǎn)換,基于用戶輸入目標(biāo)輸出空間下任意人體動(dòng)作體型參數(shù)和相機(jī)外參參數(shù),在目標(biāo)空間內(nèi)射出光線,并在光線上采樣一系列空間點(diǎn),利用 SMPL 算法的逆線性蒙皮轉(zhuǎn)換(Inverse Linear Blend Skinning)將目標(biāo)空間里的空間點(diǎn)轉(zhuǎn)換到標(biāo)準(zhǔn)空間中。

第二步為提取標(biāo)準(zhǔn)空間中 3D 點(diǎn)對(duì)應(yīng)的層級(jí)特征(hierarchical feature)。

全局特征(global feature)提取:利用二維編碼網(wǎng)絡(luò)(2D Encoder)從輸入圖片提取一維特征,并利用映射網(wǎng)絡(luò)(Mapping Network)和風(fēng)格編碼網(wǎng)絡(luò)(Style-Based Encoder)進(jìn)一步將 1D 特征轉(zhuǎn)換為標(biāo)準(zhǔn)空間下的三平面特征(Tri-plane),接下來(lái)將標(biāo)準(zhǔn)空間中 3D 點(diǎn)投影到三平面提取相應(yīng)的全局特征;

點(diǎn)級(jí)別特征(Point-Level Feature)提?。?/strong>首先利用二維編碼網(wǎng)絡(luò)(2D Encoder)從輸入圖片提取二維特征,并將觀測(cè)空間(observation space)下 SMPL 的頂點(diǎn)投影到輸入圖片成像平面上去提取相應(yīng)特征,緊接著利用 SMPL 算法的逆線性蒙皮轉(zhuǎn)換(Inverse Linear Blend Skinning)將觀測(cè)空間下 SMPL 的頂點(diǎn)轉(zhuǎn)到標(biāo)準(zhǔn)空間下構(gòu)建稀疏三維張量,然后利用稀疏卷積得到標(biāo)準(zhǔn)空間中 3D 點(diǎn)的點(diǎn)級(jí)別特征;

像素級(jí)別特征(Pixel-Aligned Feature)提?。?/strong>首先利用二維編碼網(wǎng)絡(luò)(2D Encoder)從輸入圖片提取二維特征,并利用 SMPL 算法的線性蒙皮轉(zhuǎn)換(Linear Blend Skinning)將標(biāo)準(zhǔn)空間中 3D 點(diǎn)轉(zhuǎn)到觀測(cè)空間下,再投影到輸入圖片成像平面上去提取相應(yīng)像素級(jí)別特征。

第三步為特征融合(Feature Fusion Transformer),利用 Transformer 模型將三種不同級(jí)別的特征進(jìn)行融合。第四步為人體神經(jīng)輻射場(chǎng)解碼生成相應(yīng)圖片信息,將標(biāo)準(zhǔn)空間中 3D 點(diǎn)坐標(biāo),光線方向向量和對(duì)應(yīng)特征輸入到人體神經(jīng)輻射場(chǎng)解碼網(wǎng)絡(luò)中得到 3D 點(diǎn)的體密度和顏色信息,并進(jìn)一步基于體渲染(Volume Rendering)在目標(biāo)空間下生成相應(yīng)像素的顏色值,并得到最終用戶輸入目標(biāo)輸出空間下任意人體動(dòng)作體型參數(shù)和相機(jī)外參參數(shù)下的圖片。

基于以上步驟,給定目標(biāo)輸出空間下任意人體動(dòng)作序列(SMPL)參數(shù)可以從 2D 圖片恢復(fù) 3D 數(shù)字人并加以驅(qū)動(dòng)。

結(jié)果比較

本文在四個(gè)人體數(shù)據(jù)集上人體數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),分別是 THuman,RenderPeople,ZJU_MoCap,HuMMan。

該研究對(duì)比了對(duì)比了最先進(jìn)的可泛化多視角人體圖片的人體神經(jīng)輻射場(chǎng)方法,NHP 和 MPS-NeRF。本文在 peak signal-to-noise ratio (PSNR),structural similarity index (SSIM),以及 Learned Perceptual Image Patch Similarity (LPIPS)進(jìn)行了比較。如下圖所示,本文在所有數(shù)據(jù)集,所有指標(biāo)上均大幅超越之前的方案。

cbd5035e-3b1d-11ee-9e74-dac502259ad0.png

SHERF 動(dòng)態(tài)驅(qū)動(dòng) 3D 人體結(jié)果如下圖所示:

cbed58aa-3b1d-11ee-9e74-dac502259ad0.gifcbf9108c-3b1d-11ee-9e74-dac502259ad0.gifcc0a1490-3b1d-11ee-9e74-dac502259ad0.gif

cec3dc34-3b1d-11ee-9e74-dac502259ad0.gifced5582e-3b1d-11ee-9e74-dac502259ad0.gifcf39d4d4-3b1d-11ee-9e74-dac502259ad0.gif

cf8f8e24-3b1d-11ee-9e74-dac502259ad0.gifcf9d71a6-3b1d-11ee-9e74-dac502259ad0.gifcfb0d688-3b1d-11ee-9e74-dac502259ad0.gif

從左到右分別為input Image、motion seq 1、motion seq 2

本文同樣驗(yàn)證了在 in-the-wild DeepFashion 數(shù)據(jù)上的泛化和驅(qū)動(dòng)效果,如下圖 3 所示,給定任意一張輸入圖片,本文利用單視角估 SMPL 的先進(jìn)算法估出 SMPL 和相應(yīng)相機(jī)角度,后利用本文提出的算法對(duì) 3D 人體進(jìn)行驅(qū)動(dòng)。實(shí)驗(yàn)結(jié)果顯示 SHERF 具有較強(qiáng)的泛化性。

d02506a2-3b1d-11ee-9e74-dac502259ad0.png

d08b68d4-3b1d-11ee-9e74-dac502259ad0.gifd0b45a14-3b1d-11ee-9e74-dac502259ad0.gif

從左到右分別為input Image、motion seq 1、motion seq 2

應(yīng)用前景

在游戲電影制作,虛擬現(xiàn)實(shí)增強(qiáng)現(xiàn)實(shí)或者其他需要數(shù)字人建模的場(chǎng)景,用戶可以無(wú)需專業(yè)技能,專業(yè)軟件,即可通過(guò)輸入的一張任意相機(jī)角度 3D 人體圖片,該角度下相機(jī)的參數(shù)和相應(yīng)的人體動(dòng)作體形參數(shù)(SMPL),就可以達(dá)到重建并驅(qū)動(dòng)該 3D 數(shù)字人的目的。

結(jié)語(yǔ)

本文提出一種基于單張輸入圖片可泛化可驅(qū)動(dòng)的人體神經(jīng)輻射場(chǎng)方法 SHERF??梢猿姓J(rèn)的是,本文依然存在一定的缺陷。

首先,對(duì)于輸入圖片觀測(cè)不到一部分人體表面, 渲染出來(lái)的結(jié)果可以觀察到一定的瑕疵,一個(gè)解決的辦法是建立一種遮擋可知(occlusion-aware)的人體表征。

其次,關(guān)于如何補(bǔ)齊輸入圖片觀測(cè)不到人體部分依舊是一個(gè)很難得問(wèn)題。本文從重建角度提出 SHERF,只能對(duì)觀測(cè)不到的人體部分給出一個(gè)確定性的補(bǔ)齊,對(duì)觀測(cè)不到部分的重建缺乏多樣性。一個(gè)可行的方案是利用生成模型在觀測(cè)不到的人體部分生成多樣性高質(zhì)量的 3D 人體效果。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 驅(qū)動(dòng)器
    +關(guān)注

    關(guān)注

    54

    文章

    9006

    瀏覽量

    153231
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3900

    瀏覽量

    141343

原文標(biāo)題:ICCV 2023 | SHERF:可泛化可驅(qū)動(dòng)人體神經(jīng)輻射場(chǎng)的新方法

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    奧松半導(dǎo)體榮獲2025中國(guó)創(chuàng)新方法大賽重慶賽區(qū)二等獎(jiǎng)

    近日,2025年中國(guó)創(chuàng)新方法大賽(重慶賽區(qū))暨第八屆重慶市創(chuàng)新方法大賽圓滿落幕。本屆大賽以“培育創(chuàng)新人才,服務(wù)產(chǎn)業(yè)發(fā)展”為主題,旨在激發(fā)企業(yè)創(chuàng)新活力,推動(dòng)科技創(chuàng)新與產(chǎn)業(yè)創(chuàng)新深度融合。大賽由重慶市科協(xié)
    的頭像 發(fā)表于 11-19 11:34 ?544次閱讀
    奧松半導(dǎo)體榮獲2025中國(guó)創(chuàng)<b class='flag-5'>新方法</b>大賽重慶賽區(qū)二等獎(jiǎng)

    雷達(dá)模組 Rd-03_V2 人體狀態(tài)監(jiān)測(cè)

    。 Rd-03_V2模組對(duì)運(yùn)動(dòng)人體的最遠(yuǎn)感應(yīng)距離為7m,感知區(qū)域內(nèi)人體狀態(tài),實(shí)現(xiàn)實(shí)時(shí)檢測(cè)。提供可視的配置工具,輕松配置感應(yīng)距離范圍、
    的頭像 發(fā)表于 10-23 10:37 ?296次閱讀
    雷達(dá)模組 Rd-03_V2 <b class='flag-5'>人體</b>狀態(tài)監(jiān)測(cè)

    人體靜電釋放器降低靜電事故風(fēng)險(xiǎn)

    在化工、油田、電子制造等高危行業(yè),人體靜電積累可能引發(fā)火災(zāi)爆炸等重大事故。蒙冬智能工業(yè)立式人體靜電消除器作為專業(yè)安全設(shè)備,通過(guò)科學(xué)設(shè)計(jì)有效阻斷靜電危害,已成為現(xiàn)代工業(yè)不可或缺的防護(hù)屏障。核心
    的頭像 發(fā)表于 10-17 19:30 ?244次閱讀
    <b class='flag-5'>人體</b>靜電釋放器<b class='flag-5'>可</b>降低靜電事故風(fēng)險(xiǎn)

    【產(chǎn)品介紹】Altair SimLab連接CAD的多物理場(chǎng)工作流

    AltairSimLab連接CAD的多物理場(chǎng)工作流SimLab是一種以流程為導(dǎo)向的多學(xué)科仿真環(huán)境,能夠準(zhǔn)確分析復(fù)雜裝配件的性能。包括結(jié)構(gòu)、熱和流體動(dòng)力學(xué)在內(nèi)的多物理場(chǎng)可以通過(guò)高度自動(dòng)
    的頭像 發(fā)表于 09-19 17:02 ?544次閱讀
    【產(chǎn)品介紹】Altair SimLab<b class='flag-5'>可</b>連接CAD的多物理<b class='flag-5'>場(chǎng)</b>工作流

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    、Transformer 模型的后繼者 二、用創(chuàng)新方法實(shí)現(xiàn)深度學(xué)習(xí)AI芯片 1、基于開源RISC-V的AI加速器 RISC-V是一種開源、模塊的指令集架構(gòu)(ISA)。優(yōu)勢(shì)如下: ①模塊特性②標(biāo)準(zhǔn)接口③開源
    發(fā)表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+內(nèi)容總覽

    、集成芯片、分子器件與分子憶阻器,以及打印類腦芯片等。 第五章至第八章分別探討用化學(xué)或生物方法實(shí)現(xiàn)AI、AI在科學(xué)發(fā)現(xiàn)中創(chuàng)新應(yīng)用、實(shí)現(xiàn)神經(jīng)形態(tài)計(jì)算與類腦芯片的創(chuàng)新方法,以及具身智能芯片。 第九章
    發(fā)表于 09-05 15:10

    芯片制造中高精度膜厚測(cè)量與校準(zhǔn):基于紅外干涉技術(shù)的新方法

    、環(huán)境光干擾及薄膜傾斜等因素限制,測(cè)量精度難以滿足高精度工業(yè)需求。為此,本研究提出一種融合紅外干涉與激光校準(zhǔn)的薄膜厚度測(cè)量新方法,旨在突破傳統(tǒng)技術(shù)瓶頸,實(shí)現(xiàn)更精準(zhǔn)、
    的頭像 發(fā)表于 07-21 18:17 ?2517次閱讀
    芯片制造中高精度膜厚測(cè)量與校準(zhǔn):基于紅外干涉技術(shù)的<b class='flag-5'>新方法</b>

    Simcenter STAR-CCM+電磁學(xué):多物理場(chǎng)環(huán)境下快速、擴(kuò)展的電磁分析工具

    優(yōu)勢(shì)先進(jìn)的電磁求解器可對(duì)低頻應(yīng)用進(jìn)行精確分析單一集成多物理場(chǎng)環(huán)境提高物理逼真度,擴(kuò)大應(yīng)用范圍在同一仿真中,計(jì)算電磁學(xué)與計(jì)算流體力學(xué)(CFD)/熱物理學(xué)耦合低頻電磁學(xué)的有限體積和有限元離散可用
    的頭像 發(fā)表于 07-16 10:51 ?507次閱讀
    Simcenter STAR-CCM+電磁學(xué):多物理<b class='flag-5'>場(chǎng)</b>環(huán)境下快速、<b class='flag-5'>可</b>擴(kuò)展的電磁分析工具

    無(wú)刷直流電機(jī)反電勢(shì)過(guò)零檢測(cè)新方法

    新方法。在三相采樣等效電路上分別并聯(lián)一組三極管控制的電阻分壓開關(guān)電路,參考電機(jī)轉(zhuǎn)速線性調(diào)節(jié)控制信號(hào)占空比,以此控制三極管通斷,從而調(diào)節(jié)電阻分樂(lè)開關(guān)電路阻值,可以避免高速時(shí)反電勢(shì)幅值高于檢測(cè)電路供電電壓
    發(fā)表于 06-26 13:50

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    自學(xué)習(xí)能力 : BP神經(jīng)網(wǎng)絡(luò)能夠通過(guò)訓(xùn)練數(shù)據(jù)自動(dòng)調(diào)整網(wǎng)絡(luò)參數(shù),實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的分類、回歸等任務(wù),無(wú)需人工進(jìn)行復(fù)雜的特征工程。 能力強(qiáng) : BP神經(jīng)網(wǎng)絡(luò)通過(guò)訓(xùn)練數(shù)據(jù)學(xué)習(xí)到的特征表示
    的頭像 發(fā)表于 02-12 15:36 ?1531次閱讀

    判斷膨脹石墨好壞的方法

    在現(xiàn)代工業(yè)中,膨脹石墨作為一種高性能材料,廣泛應(yīng)用于石油化工、紡織、冶金、電力、機(jī)械、船舶、消防、航天及核能等領(lǐng)域。其優(yōu)良的可塑性、柔韌延展性和密封性,以及耐高溫、耐高壓、耐腐蝕、耐輻射等特性
    的頭像 發(fā)表于 01-09 15:09 ?1072次閱讀

    大華股份榮獲中國(guó)創(chuàng)新方法大賽一等獎(jiǎng)

    近日,備受矚目的2024年中國(guó)創(chuàng)新方法大賽全國(guó)總決賽在重慶圓滿落下帷幕。此次大賽由中國(guó)科協(xié)與重慶市人民政府聯(lián)合主辦,吸引了眾多創(chuàng)新企業(yè)和團(tuán)隊(duì)參與,共同展示創(chuàng)新成果,角逐榮譽(yù)獎(jiǎng)項(xiàng)。 在這場(chǎng)創(chuàng)新盛宴中
    的頭像 發(fā)表于 12-27 14:50 ?869次閱讀

    基于遺傳算法的QD-SOA設(shè)計(jì)新方法

    了QD-SOA的設(shè)計(jì),提出了一種基于遺傳算法的QD-SOA設(shè)計(jì)新方法。由于具有用于設(shè)計(jì)的模型是必不可少的,因此在第一步中獲得數(shù)值模型。然后,利用從數(shù)值模型中采樣的訓(xùn)練數(shù)據(jù)建立人工神經(jīng)網(wǎng)絡(luò)模型。實(shí)驗(yàn)表明,該神經(jīng)模型具有較高的精度和
    的頭像 發(fā)表于 12-17 09:58 ?688次閱讀
    基于遺傳算法的QD-SOA設(shè)計(jì)<b class='flag-5'>新方法</b>

    一種降低VIO/VSLAM系統(tǒng)漂移的新方法

    本文提出了一種新方法,通過(guò)使用點(diǎn)到平面匹配將VIO/VSLAM系統(tǒng)生成的稀疏3D點(diǎn)云與數(shù)字孿生體進(jìn)行對(duì)齊,從而實(shí)現(xiàn)精確且全球一致的定位,無(wú)需視覺(jué)數(shù)據(jù)關(guān)聯(lián)。所提方法為VIO/VSLAM系統(tǒng)提供了緊密
    的頭像 發(fā)表于 12-13 11:18 ?1171次閱讀
    一種降低VIO/VSLAM系統(tǒng)漂移的<b class='flag-5'>新方法</b>

    大華股份榮獲2024年中國(guó)創(chuàng)新方法大賽一等獎(jiǎng)

    近日,由中國(guó)科協(xié)、重慶市人民政府舉辦的2024年中國(guó)創(chuàng)新方法大賽全國(guó)總決賽在重慶落下帷幕。大華股份靈活運(yùn)用創(chuàng)新方法、突破行業(yè)性技術(shù)難題,憑借“不懼強(qiáng)光,分毫必現(xiàn),基于TRIZ的強(qiáng)逆光銳捕技術(shù)”項(xiàng)目,斬獲全國(guó)一等獎(jiǎng)。
    的頭像 發(fā)表于 12-04 17:19 ?1072次閱讀