chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ICLR 2023 Spotlight:2D圖像轉(zhuǎn)換3D

3D視覺工坊 ? 來源:機器之心 ? 2023-02-22 14:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

背景

利用 NeRF 提供的可微渲染算法,三維生成算法,例如 EG3D、StyleSDF,在靜態(tài)物體類別的生成上已經(jīng)有了非常好的效果。但是人體相較于人臉或者 CAD 模型等類別,在外觀和幾何上有更大的復(fù)雜度,并且人體是可形變的,因此從二維圖片中學(xué)習(xí)三維人體生成仍然是非常困難的任務(wù)。研究人員在這個任務(wù)上已經(jīng)有了一些嘗試,例如 ENARF-GAN、GNARF,但是受限于低效的人體表達,他們無法實現(xiàn)高分辨率的生成,因此生成質(zhì)量也非常低。

為了解決這個問題,本文提出了高效的組合的三維人體 NeRF 表示,用以實現(xiàn)高分辨率的(512x256)三維人體 GAN 訓(xùn)練與生成。下面將介紹本文提出的人體 NeRF 表示,以及三維人體 GAN 訓(xùn)練框架。

高效的人體 NeRF 表示

本文提出的人體 NeRF 基于參數(shù)化人體模型 SMPL,它提供了方便的人體姿勢以及形狀的控制。進行 NeRF 建模時,如下圖所示,本文將人體分為 16 個部分。每一個部分對應(yīng)于一個小的 NeRF 網(wǎng)絡(luò)進行局部的建模。在渲染每一個局部的時候,本文只需要推理局部 NeRF。這種稀疏的渲染方式,在較低的計算資源下,也可以實現(xiàn)原生高分辨率的渲染。

例如,渲染體型動作參數(shù)分別為的人體時,首先根據(jù)相機參數(shù)采樣光線;光線上的采樣點根據(jù)與 SMPL 模型的相對關(guān)系進行反向蒙皮操作(inverse linear blend skinning),將 posed 空間中的采樣點轉(zhuǎn)化到 canonical 空間中。接著計算 Canonical 空間的采樣點屬于某個或者某幾個局部 NeRF 的 bounding box 中,再進行 NeRF 模型的推理,得到每個采樣點對應(yīng)的顏色與密度;當某個采樣點落到多個局部 NeRF 的重疊區(qū)域,則會對每個 NeRF 模型進行推理,將多個結(jié)果用 window function 進行插值;最后這些信息被用于光線的積分,得到最終的渲染圖。

6a815c24-b247-11ed-bfe3-dac502259ad0.png

三維人體 GAN 框架

基于提出的高效的人體 NeRF 表達,本文實現(xiàn)了三維人體 GAN 訓(xùn)練框架。在每一次訓(xùn)練迭代中,本文首先從數(shù)據(jù)集中采樣一個 SMPL 的參數(shù)以及相機參數(shù),并隨機生成一個高斯噪聲 z。利用本文提出的人體 NeRF,本文可以將采樣出的參數(shù)渲染成一張二維人體圖片,作為假樣本。再利用數(shù)據(jù)集中的真實樣本,本文進行 GAN 的對抗訓(xùn)練。

6a97e642-b247-11ed-bfe3-dac502259ad0.png

極度不平衡的數(shù)據(jù)集

二維人體數(shù)據(jù)集,例如 DeepFashion,通常是為二維視覺任務(wù)準備的,因此人體的姿態(tài)多樣性非常受限。為了量化不平衡的程度,本文統(tǒng)計了 DeepFashion 中模特臉部朝向的頻率。如下圖所示,橙色的線代表了 DeepFashion 中人臉朝向的分布,可見是極度不平衡的,對于學(xué)習(xí)三維人體表征造成了困難。為了緩解這一問題,我們提出了由人體姿態(tài)指導(dǎo)的采樣方式,將分布曲線拉平,如下圖中其他顏色的線所示。這可以讓訓(xùn)練過程中的模型見到更多樣以及更大角度的人體圖片,從而幫助三維人體幾何的學(xué)習(xí)。我們對采樣參數(shù)進行了實驗分析,從下面的表格中可見,加上人體姿態(tài)指導(dǎo)的采樣方式后,雖然圖像質(zhì)量(FID)會有些微下降,但是學(xué)出的三維幾何(Depth)顯著變好。

6ab2b4ae-b247-11ed-bfe3-dac502259ad0.png

6af69688-b247-11ed-bfe3-dac502259ad0.png

高質(zhì)量的生成結(jié)果

下圖展示了一些 EVA3D 的生成結(jié)果,EVA3D 可以隨機采樣人體樣貌,并可控制渲染相機參數(shù),人體姿勢以及體型。

6b06bf04-b247-11ed-bfe3-dac502259ad0.png

本文在四個大規(guī)模人體數(shù)據(jù)集上進行了實驗,分別是 DeepFashion,SHHQ,UBCFashion,AIST。該研究對比了最先進的靜態(tài)三維物體生成算法 EG3D 與 StyleSDF。同時研究者也比較了專門針對三維人生成的算法 ENARF-GAN。在指標的選擇上,本文兼顧渲染質(zhì)量的評估(FID/KID)、人體控制的準確程度(PCK)以及幾何生成的質(zhì)量(Depth)。如下圖所示,本文在所有數(shù)據(jù)集,所有指標上均大幅超越之前的方案。

6b3cf0d8-b247-11ed-bfe3-dac502259ad0.png

應(yīng)用潛力

最后,本文也展示了 EVA3D 的一些應(yīng)用潛力。首先,該研究測試了在隱空間中進行差值。如下圖所示,本文能夠在兩個三維人之間進行平滑的變化,且中間結(jié)果均保持較高的質(zhì)量。此外,本文也進行了 GAN inversion 的實驗,研究者使用二維 GAN inversion 中常用的算法 Pivotal Tuning Inversion。如下面右圖所示,該方法可以較好的還原重建目標的外觀,但是幾何部分丟失了很多細節(jié)。可見,三維 GAN 的 inversion 仍然是一個很有挑戰(zhàn)性的任務(wù)。

6b679afe-b247-11ed-bfe3-dac502259ad0.png

結(jié)語

本文提出了首個高清三維人體 NeRF 生成算法 EVA3D,并且僅需使用二維人體圖像數(shù)據(jù)即可訓(xùn)練。EVA3D 在多個大規(guī)模人體數(shù)據(jù)集上性能達到最佳,并且展現(xiàn)出了在下游任務(wù)上進行應(yīng)用的潛力。EVA3D 的訓(xùn)練與測試代碼均已經(jīng)開源,歡迎大家前去試用!

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4740

    瀏覽量

    96736
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    42018
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    2277

    瀏覽量

    78656

原文標題:ICLR 2023 Spotlight | 2D圖像轉(zhuǎn)換3D

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何同時獲取2d圖像序列和相應(yīng)的3d點云?

    如何同時獲取2d圖像序列和相應(yīng)的3d點云?以上來自于谷歌翻譯以下為原文How to obtain the sequence of 2d image and corresponding
    發(fā)表于 11-13 11:25

    請問怎么才能將AD中的3D封裝庫轉(zhuǎn)換2D的封裝庫?

    請問怎么將AD中的3D封裝庫轉(zhuǎn)換2D的封裝庫
    發(fā)表于 06-05 00:35

    為什么3D2D模型不能相互轉(zhuǎn)換?

    AD17.1.5軟件,3D2D模型不能相互轉(zhuǎn)換,按3可以進入3D模型,按2不可以進入
    發(fā)表于 09-20 05:35

    全球首款2D/3D視頻轉(zhuǎn)換實時處理芯片:DA8223

      Dialog半導(dǎo)體股份有限公司日前宣布推出全球首款2D/3D影像轉(zhuǎn)換實時處理芯片:DA8223.該芯片為包括智能手機和平板電腦等在內(nèi)的各種便攜式設(shè)備提供了2D/
    發(fā)表于 12-14 09:17 ?5547次閱讀

    2D3D視頻自動轉(zhuǎn)換系統(tǒng)

    完成系統(tǒng)界面的設(shè)置及控制、顯示等功能,其DSP處理器實現(xiàn)圖像分割和渲染等核心算法,實現(xiàn)了1個高效的2D3D視頻的視頻轉(zhuǎn)換系統(tǒng)。2D轉(zhuǎn)
    發(fā)表于 03-06 14:20 ?1次下載
    <b class='flag-5'>2D</b>到<b class='flag-5'>3D</b>視頻自動<b class='flag-5'>轉(zhuǎn)換</b>系統(tǒng)

    如何把OpenGL中3D坐標轉(zhuǎn)換2D坐標

    在OpenGL中,一切事物都在3D空間中,但我們的屏幕坐標確實2D像素數(shù)組,OpenGL大部分工作就是把3D坐標轉(zhuǎn)換成適應(yīng)屏幕的2D像素。
    的頭像 發(fā)表于 07-09 10:40 ?9017次閱讀

    微軟新AI框架可在2D圖像上生成3D圖像

    已經(jīng)有不少機構(gòu)在將 2D 圖像轉(zhuǎn)換3D 形式的方面進行了嘗試,包括 Facebook、Nvidia 等公司的 AI 研究實驗室,或是類似 Threedy.AI 這樣的初創(chuàng)公司。
    的頭像 發(fā)表于 03-07 14:23 ?3405次閱讀

    阿里研發(fā)全新3D AI算法,2D圖片搜出3D模型

    AI技術(shù)的研究正在從2D走向更高難度的3D。12月3日,記者獲悉,阿里技術(shù)團隊研發(fā)了全新3D AI算法,可基于2D圖片精準搜索出相應(yīng)的
    的頭像 發(fā)表于 12-04 15:49 ?4116次閱讀

    谷歌發(fā)明的由2D圖像生成3D圖像技術(shù)解析

    谷歌發(fā)明的由2D圖像生成3D圖像的技術(shù),利用3D估計神經(jīng)網(wǎng)絡(luò)圖像信息的補全以及預(yù)測,融合了拍攝角
    的頭像 發(fā)表于 12-24 12:55 ?5265次閱讀
    谷歌發(fā)明的由<b class='flag-5'>2D</b><b class='flag-5'>圖像</b>生成<b class='flag-5'>3D</b><b class='flag-5'>圖像</b>技術(shù)解析

    3d人臉識別和2d人臉識別的區(qū)別

    首先是3d人臉識別和2d人臉識別圖像數(shù)據(jù)獲取不同。3D人臉識別是以3D攝像頭立體成像,而2D是以
    發(fā)表于 02-05 16:00 ?5.2w次閱讀

    如何直接建立2D圖像中的像素和3D點云中的點之間的對應(yīng)關(guān)系

    準確描述和檢測 2D3D 關(guān)鍵點對于建立跨圖像和點云的對應(yīng)關(guān)系至關(guān)重要。盡管已經(jīng)提出了大量基于學(xué)習(xí)的 2D3D 局部特征描述符和
    的頭像 發(fā)表于 10-18 09:20 ?1.1w次閱讀

    使用Python從2D圖像進行3D重建過程詳解

    有許多不同的方法和算法可用于從2D圖像執(zhí)行3D重建。選擇的方法取決于諸如輸入圖像的質(zhì)量、攝像機校準信息的可用性以及重建的期望準確性和速度等因素。
    的頭像 發(fā)表于 12-05 14:07 ?4602次閱讀
    使用Python從<b class='flag-5'>2D</b><b class='flag-5'>圖像</b>進行<b class='flag-5'>3D</b>重建過程詳解

    2D3D視覺技術(shù)的比較

    作為一個多年經(jīng)驗的機器視覺工程師,我將詳細介紹2D3D視覺技術(shù)的不同特點、應(yīng)用場景以及它們能夠解決的問題。在這個領(lǐng)域內(nèi),2D3D視覺技術(shù)是實現(xiàn)自動化和智能制造的關(guān)鍵技術(shù),它們在工業(yè)
    的頭像 發(fā)表于 12-21 09:19 ?2121次閱讀

    一文了解3D視覺和2D視覺的區(qū)別

    一文了解3D視覺和2D視覺的區(qū)別 3D視覺和2D視覺是兩種不同的視覺模式,其區(qū)別主要體現(xiàn)在立體感、深度感和逼真度上。本文將詳細闡述這些區(qū)別,并解釋為什么
    的頭像 發(fā)表于 12-25 11:15 ?4744次閱讀

    AN-1249:使用ADV8003評估板將3D圖像轉(zhuǎn)換2D圖像

    電子發(fā)燒友網(wǎng)站提供《AN-1249:使用ADV8003評估板將3D圖像轉(zhuǎn)換2D圖像.pdf》資料免費下載
    發(fā)表于 01-08 14:28 ?0次下載
    AN-1249:使用ADV8003評估板將<b class='flag-5'>3D</b><b class='flag-5'>圖像</b><b class='flag-5'>轉(zhuǎn)換</b>成<b class='flag-5'>2D</b><b class='flag-5'>圖像</b>