chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)背景下的圖像三維重建技術(shù)進展綜述

新機器視覺 ? 來源:《中國圖象圖形學(xué)報》 ? 2023-01-09 14:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

三維重建是指從單張二維圖像或多張二維圖像中重建出物體的三維模型,并對三維模型進行紋理映射的過程。三維重建可獲取從任意視角觀測并具有色彩紋理的三維模型,是計算機視覺領(lǐng)域的一個重要研究方向。傳統(tǒng)的三維重建方法通常需要輸入大量圖像,并進行相機參數(shù)估計、密集點云重建、表面重建和紋理映射等多個步驟。近年來,深度學(xué)習(xí)背景下的圖像三維重建受到了廣泛關(guān)注,并表現(xiàn)出了優(yōu)越的性能和發(fā)展前景。

本文對深度學(xué)習(xí)背景下的圖像三維重建的技術(shù)方法、評測方法和數(shù)據(jù)集進行了全面的綜述。首先對三維重建進行分類,根據(jù)三維模型的表示形式可將圖像三維重建方法分類為基于體素的三維重建、基于點云的三維重建和基于網(wǎng)格的三維重建,由輸入圖像的類型可將圖像三維重建分類為單張圖像三維重建和多張圖像三維重建,隨后介紹了不同類別的三維重建方法,從三維重建方法的輸入、三維模型表示形式、模型紋理顏色、重建網(wǎng)絡(luò)的基準(zhǔn)值類型和特點等方面進行了總結(jié),描述了深度學(xué)習(xí)背景下的圖像三維重建方法的常用數(shù)據(jù)集和實驗對比,最后總結(jié)了當(dāng)前圖像三維重建領(lǐng)域的待解決的問題以及未來的研究方向。

00 引言

三維重建的目標(biāo)是從單張二維圖像或多張二維圖像中重建出物體和場景的三維模型,并對三維模型進行紋理映射。三維重建是計算機視覺領(lǐng)域的一個重要研究方向,利用計算機重建出物體的三維模型,已經(jīng)成為眾多領(lǐng)域進行深入研究前不可或缺的一部分。在醫(yī)療領(lǐng)域中,利用三維模型診斷身體狀況;在歷史文化領(lǐng)域中,將文物進行立體重建,供科學(xué)研究及游客參觀。除此之外,在游戲開發(fā)、工業(yè)設(shè)計、航天航海等領(lǐng)域,三維重建技術(shù)具有重要的應(yīng)用前景。

目前,研究人員主要利用三類方法來重建三維模型:

一是直接操作的人工幾何建模技術(shù);

二是利用三維掃描設(shè)備對目標(biāo)進行掃描,然后重建目標(biāo)的三維模型;

三是圖像三維重建,采集單張或多張的圖像,運用計算機視覺技術(shù)來重建三維模型。

在上述三種方法中,圖像三維重建成本低、操作簡單,可以對不規(guī)則的自然或人工合成物體進行建模,重建真實物體的三維模型。

傳統(tǒng)的圖像三維重建是從多視圖幾何(Andrew等, 2001)的角度進行處理,從幾何上理解和分析從三維到二維的投影過程,設(shè)計從二維到三維的逆問題解決方案進行三維重建。傳統(tǒng)的三維重建通常需要大量已知相機參數(shù)的圖像,并進行相機參數(shù)估計、密集點云重建和表面重建等多個步驟。隨著卷積神經(jīng)網(wǎng)絡(luò)(CNN)的發(fā)展,深度學(xué)習(xí)廣泛應(yīng)用于計算機視覺中的各種領(lǐng)域,基于深度學(xué)習(xí)的技術(shù)方法利用先驗知識來解決各種復(fù)雜問題。人們通常能夠?qū)ξ矬w和場景建立豐富的先驗知識,便于從單一視角重建物體的立體模型,推斷物體的大小和其他視角的形狀。

深度學(xué)習(xí)背景下的圖像三維重建方法利用大量數(shù)據(jù)建立先驗知識,將三維重建轉(zhuǎn)變?yōu)榫幋a與解碼問題,從而對物體進行三維重建。隨著三維數(shù)據(jù)集的數(shù)量不斷增加,計算機的計算能力不斷提升,深度學(xué)習(xí)背景下的圖像三維重建方法能夠在無需復(fù)雜的相機校準(zhǔn)的情況下從單張或多張二維圖像中重建物體的三維模型。

三維模型的表示形式有三種:體素模型、網(wǎng)格模型和點云模型。體素是三維空間中的正方體,相當(dāng)于三維空間中的像素;網(wǎng)格是由多個三角形組成的多面體結(jié)構(gòu),可以表示復(fù)雜物體的表面形狀;點云是坐標(biāo)系中的點的集合,包含了三維坐標(biāo)、顏色、分類值等信息。三維模型的表示形式如圖1所示。

1be9e9de-8f40-11ed-bfe3-dac502259ad0.png

圖 1 三維模型的表示形式

根據(jù)三維模型的表示形式可以將圖像三維重建方法分類為基于體素的三維重建、基于點云的三維重建和基于網(wǎng)格的三維重建,其中基于網(wǎng)格的三維重建方法包含單一顏色的網(wǎng)格三維重建和具有色彩紋理的網(wǎng)格三維重建,由輸入圖像的類型可將圖像三維重建分類為單張圖像三維重建和多張圖像三維重建。圖像三維重建方法分類如圖2所示。

1c10b636-8f40-11ed-bfe3-dac502259ad0.png

圖2 圖像三維重建方法的分類

典型的三維重建算法時間順序概述如圖3所示。

1c665032-8f40-11ed-bfe3-dac502259ad0.png

圖3 典型的三維重建算法按時間順序的概述

盡管目前已有一些三維重建相關(guān)綜述文獻(鄭太雄等,2020;吳博劍等,2020;龍霄瀟等,2021),但已有的綜述文獻主要介紹傳統(tǒng)方法或特殊物體的三維重建,介紹深度學(xué)習(xí)背景下的圖像三維重建技術(shù)的文獻相對偏少。本文立足于三維重建領(lǐng)域,對圖像三維重建研究進行分析總結(jié),從輸入圖像類型的角度分別對單張圖像三維重建和多張圖像三維重建進行了介紹,并對三維重建的評測方法、數(shù)據(jù)集、實驗對比方法以及三維重建領(lǐng)域的問題與未來研究方向進行了總結(jié)。

01 單張圖像三維重建

單張圖像三維重建使用卷積神經(jīng)網(wǎng)絡(luò),從大量的訓(xùn)練數(shù)據(jù)中學(xué)習(xí)圖像中的特征來重建物體的三維模型。在的單張圖像三維重建方法中,早期的方法通常使用端到端網(wǎng)絡(luò)得到體素模型或點云模型形式表示的三維模型,另外一些方法首先獲取深度圖、點云或隱式函數(shù),得到三維模型的中間表示,隨后再將三維模型的中間表示轉(zhuǎn)化為網(wǎng)格模型。

1.1 基于體素的單張圖像三維重建

基于體素模型的方法法使用體素模型對三維形狀進行表示,體素模型是在深度學(xué)習(xí)背景下的圖像三維重建技術(shù)最早應(yīng)用的一種表示方法。通過使用體素模型,在圖像分析中使用的二維卷積可以很容易地擴展到三維?;隗w素的單張圖像三維重建通常利用編碼器解碼器結(jié)構(gòu)的網(wǎng)絡(luò)重建三維模型。

2016年,Choy等人(2016)在長短期記憶網(wǎng)絡(luò)(LSTM)基礎(chǔ)上設(shè)計了三維(3D)LSTM網(wǎng)絡(luò)處理單張圖像的編碼信息,網(wǎng)絡(luò)由三部分組成:CNN、3D-LSTM和3D-CNN,CNN將圖像編碼為低維特征,并送入3D-LSTM更新潛在編碼,最后利用3D-CNN解碼,使用體素交叉熵的和作為損失函數(shù)訓(xùn)練網(wǎng)絡(luò),重建體素模型,實現(xiàn)了從單張圖像端到端重建三維模型。Yang等人(2019)利用生成對抗網(wǎng)絡(luò)(GAN)(Goodfellow等, 2014)對體素模型重建網(wǎng)絡(luò)進行改進,但需要同時輸入深度圖,增大了獲取輸入信息的難度。對于輸入為單張圖像的體素重建網(wǎng)絡(luò),可以從編碼器、解碼器和損失函數(shù)等方面進行優(yōu)化改進。Liu等人(2018)使用三維卷積神經(jīng)網(wǎng)絡(luò)進行編碼,將三維卷積代替解碼器中的二維卷積,可以適應(yīng)三維模型,將學(xué)習(xí)到的潛在特征解碼為三維占用概率從而重建體素模型。Tulsiani等人(2017; 2018)使用多視角二維圖像和相應(yīng)的掩膜圖像作為基準(zhǔn)使用視圖一致性損失訓(xùn)練網(wǎng)絡(luò),減小了數(shù)據(jù)獲取的難度,利用單張圖像來預(yù)測體素占用概率并重建物體的體素模型。

為了提升體素分辨率,一些方法用八叉樹來表示體素空間,八叉樹是具有自適應(yīng)單元大小的三維結(jié)構(gòu),在傳統(tǒng)的深度圖融合方式的三維重建等方面有著廣泛的應(yīng)用,與常規(guī)體素網(wǎng)格相比,減少了內(nèi)存的消耗。在體素上定義的函數(shù)可以轉(zhuǎn)換為在八分樹上定義的函數(shù),首先以八個子空間代表整個空間,隨后遞歸地劃分每個空間為八個子空間,直至達到最大樹深度。Tatarchenko等人(2017)使用3DCNN輸出特征圖,特征圖解碼為八叉樹,然后低分辨率結(jié)構(gòu)逐漸細(xì)化到高分辨率。Wang等人(2018)等從八叉樹的不同葉節(jié)點進行計算,將節(jié)點標(biāo)記為空狀態(tài)、準(zhǔn)確狀態(tài)和不準(zhǔn)確狀態(tài),結(jié)合八叉樹結(jié)構(gòu)交叉熵和葉節(jié)點平面參數(shù)差作為損失函數(shù)生成八叉樹,最終根據(jù)八叉樹結(jié)構(gòu)重建體素模型。Yu等人(2022)利用潛在空間中的特定類別的多模態(tài)先驗分布訓(xùn)練變分自編碼器,利用潛在空間的子集就可以找到先驗分布的目標(biāo)模態(tài),獲取類別的先驗信息,隨后將先驗信息和圖像特征共同送入解碼器重建三維模型。

在基于體素的三維重建網(wǎng)絡(luò)中,處理體素的方式與處理圖像中的像素的方式類似,二維卷積能夠較簡單地轉(zhuǎn)變?yōu)槿S卷積?;隗w素模型的三維重建網(wǎng)絡(luò)的解碼器通常由三維卷積構(gòu)成,利用三維體素模型進行訓(xùn)練,但重建體素模型通常需要較大的內(nèi)存,所需內(nèi)存和計算要求與體素模型的分辨率大小成立方比例,因此重建的體素模型分辨率較低,基于體素模型的方法無法重建物體的細(xì)節(jié)部位。

1.2 基于點云的單張圖像三維重建

點云是利用三維坐標(biāo)、顏色等信息表示物體表面的點的集合,為三維重建網(wǎng)絡(luò)提供了更好的表示形式。基于點云的方法重建的形狀更加平滑,相較于體素模型運算所占用的內(nèi)存更少。基于點云的單張圖像三維重建通常利用編碼器-解碼器結(jié)構(gòu)的網(wǎng)絡(luò)重建點云模型。Fan等人(2017)在圖像編碼后使用全連接和反卷積作為解碼器,使用倒角距離和搬土距離作為損失函數(shù)的指標(biāo),重建點云形式的三維模型。Mandikal等人(2019)使用全連接作為解碼器,利用搬土距離建立損失函數(shù)重建稀疏點云,然后使用多層感知機(MLP)提取點云特征,使用倒角距離作為損失函數(shù)的指標(biāo)對初始的稀疏點云進行密集重建來獲取物體的點云模型。另外一些研究者聯(lián)合不同損失函數(shù)設(shè)計單張圖像點云模型重建的網(wǎng)絡(luò)。Mandikal等人(2019)使用點云自編碼器來學(xué)習(xí)三維點云的潛在空間。圖像編碼器將二維圖像以概率的方式映射潛在空間,推斷出多個三維重建模型,聯(lián)合匹配損失和多樣性損失重建點云模型。Jiang等人(2018)聯(lián)合生成對抗損失和多視圖一致?lián)p失,使用GAN網(wǎng)絡(luò)重建點云模型。

由于點云的無序性,二維卷積無法直接應(yīng)用在基于點云的三維重建方法的解碼器中,基于點云的三維重建方法通常使用全連接層組成MLP解碼點云信息,計算量隨點云增多而增大,為減少計算量,通常側(cè)重于重建表面的點,由于點云的離散性,重建的點云模型表面不完整,分辨率較低。

1.3 基于網(wǎng)格的單張圖像三維重建

1.3.1 基于多階段網(wǎng)絡(luò)的單張圖像三維重建

相比于體素模型和點云模型,網(wǎng)格模型能夠更加完整地表示物體表面形狀,一些方法利用深度估計、點云重建等多個階段構(gòu)建深度學(xué)習(xí)網(wǎng)絡(luò)重建網(wǎng)格形式的三維模型。Groueix等人(2018)使用Resnet(He等, 2016)作為圖像的編碼器,隨后使用MLP進行解碼,將二維點映射為三維點,以點的倒角損失作為損失函數(shù)重建點云模型,使用泊松重建算法重建網(wǎng)格模型。

深度圖和表面法向表示物體部分視角的立體結(jié)構(gòu),深度估計和表面法向估計可作為網(wǎng)格重建的中間步驟。深度圖的像素表示物體到相機所在平面的距離,表面法向表示物體表面的點的切線方向?;谏疃葘W(xué)習(xí)的深度估計方法(宋巍等, 2022)已發(fā)展較長時間,Eigen等人(2014)提出單張圖像深度估計的卷積神經(jīng)網(wǎng)絡(luò)框架,使用兩個卷積神經(jīng)網(wǎng)絡(luò)分別從全局和局部范圍對圖像對應(yīng)的深度圖進行粗略估計和細(xì)化,Hu等人(2019)提出多尺度特征融合策略的網(wǎng)絡(luò)結(jié)構(gòu),提高了深度估計的效果,Chen等人(2019)設(shè)計了基于感知結(jié)構(gòu)的殘差金字塔網(wǎng)絡(luò)結(jié)構(gòu),在深度估計網(wǎng)絡(luò)中更高效地進行特征融合。傳統(tǒng)的表面法向估計方法使用光度立體算法(Woodham, 1980; Shi等,2014)進行表面法向估計,為提高性能,一些研究者(Chen等,2018; Ju等,2021)將深度學(xué)習(xí)與光度立體算法相結(jié)合,更高效地回歸表面法向,舉雅琨等人(2022)提出了一種多層聚合和權(quán)值共享回歸結(jié)構(gòu)的光度立體網(wǎng)絡(luò),利用不同尺度的特征回歸出高分辨的表面法向。Yao等人(2020)將深度估計和表面法向估計作為中間步驟來重建網(wǎng)格模型,首先估計物體前方的深度和表面法向,隨后利用GAN網(wǎng)絡(luò)估計物體后方的深度和表面法向,利用深度圖和表面法向重建點云,使用泊松重建算法將點云模型轉(zhuǎn)換為網(wǎng)格模型。Liu等人(2021)在空間占有的基礎(chǔ)上提出類別自適應(yīng)的聯(lián)合占有,將類別特征添加到潛在編碼中,估計表面法向重建形狀,提高三維重建網(wǎng)絡(luò)重建不同類別的物體的性能,聯(lián)合反照率重建具有顏色紋理的網(wǎng)格模型。

基于深度和表面法向的網(wǎng)格模型重建對不可見部位的重建效果較差,而人臉圖像中的不可見部位較少,Sengupta等人(2018)提取圖像特征后使用殘差塊將圖像特征分離為表面法向特征和反照率特征,并估計光照特征,重建具有紋理的人臉三維模型。Abrevaya等人(2020)設(shè)計了圖像編碼器和表面法向解碼器之間的跳連接,進行人臉圖像到人臉表面法向的轉(zhuǎn)換。Zhang等人(2021)的網(wǎng)絡(luò)學(xué)習(xí)人臉身份一致性,估計反照率、深度、姿態(tài)、光照和置信度,從圖像中重建人臉三維模型。

1.3.2 基于模板的單張圖像三維重建

由于網(wǎng)格模型的頂點相互連接,將網(wǎng)格的頂點作為圖結(jié)構(gòu)進行處理,使用圖卷積神經(jīng)網(wǎng)絡(luò)處理網(wǎng)格模型的頂點,從而對初始的網(wǎng)格模型進行變形優(yōu)化,重建更加精細(xì)的網(wǎng)格形式的三維模型。Wang等人(2018)根據(jù)編碼器提取的圖像特征使用圖卷積神經(jīng)網(wǎng)絡(luò)對初始橢球體形狀的網(wǎng)格模型進行多個階段的變形,聯(lián)合倒角損失和表面法向損失重建網(wǎng)格模型。Tang等人(2019)綜合多種方法設(shè)計了骨架橋接網(wǎng)絡(luò),該網(wǎng)絡(luò)分為三個階段分別重建物體的骨架模型、體素模型和網(wǎng)格模型,使用MLP提取骨架點,根據(jù)圖像特征和骨架點重建粗糙的體素模型,隨后使用3D-CNN處理體素模型并將體素模型網(wǎng)格化,聯(lián)合倒角距離損失和拉普拉斯平滑度的正則化構(gòu)建損失函數(shù),利用圖卷積神經(jīng)網(wǎng)絡(luò)重建網(wǎng)格模型。

不同的人體和人臉之間存在相似性,因此可用參數(shù)化模型表示人體和人臉三維模型。人體三維重建方法通常使用蒙皮多人線性模型(SMPL)作為人體參數(shù)化模型,Kanazawa等人(2018)設(shè)計了人體模型重建網(wǎng)絡(luò)將CNN作為編碼器獲得圖像特征,由圖像特征回歸相機參數(shù)以及SMPL模型的形狀參數(shù)和姿態(tài)參數(shù),由參數(shù)生成SMPL模型。Kolotouros等人(2019)將輸入圖像編碼為低維特征向量,附加到網(wǎng)格模型的三維坐標(biāo),隨后使用圖卷積神經(jīng)網(wǎng)絡(luò)對網(wǎng)格進行處理,回歸網(wǎng)格模型頂點的三維坐標(biāo)。Lin等人(2021)提取圖像特征向量,并將圖像特征與三維坐標(biāo)連接,學(xué)習(xí)圖像和網(wǎng)格頂點之間的相關(guān)性,使用Transformer回歸網(wǎng)格頂點的三維坐標(biāo)。人臉三維重建方法使用可變形人臉模型(3DMM)作為人臉參數(shù)化模型,Richardson等人(2017)的網(wǎng)絡(luò)由CoarseNet和FineNet兩部分組成,CoarseNet基于ResNet網(wǎng)絡(luò)生成由幾何和姿態(tài)參數(shù)表示的粗糙模型,F(xiàn)inenet對粗糙模型的參數(shù)進行優(yōu)化,獲取3DMM人臉參數(shù)化模型的細(xì)節(jié)。Zhu等人(2019)通過級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)對圖像進行擬合,預(yù)測參數(shù)更新,并作為3DMM人臉參數(shù)化模型的參數(shù)生成模型。

基于模板的單張圖像三維重建通過變形初始網(wǎng)格模型或回歸參數(shù)化模型的方式對三維模型進行重建,通常只能重建特定頂點數(shù)量的網(wǎng)格模型,對三維模型細(xì)節(jié)部位的重建效果較差。

1.3.3 基于隱式函數(shù)的單張圖像三維重建

為減少訓(xùn)練期間的內(nèi)存并進一步提高重建效果,一些研究者提出可表示三維形狀的隱式函數(shù),通過學(xué)習(xí)重建目標(biāo)的隱式函數(shù)來重建網(wǎng)格形式的三維模型。常用的隱式函數(shù)有符號距離函數(shù)、空間占有率和點標(biāo)簽。在神經(jīng)網(wǎng)絡(luò)構(gòu)建表示三維形狀的隱式函數(shù)后,使用提取算法從學(xué)習(xí)到的三維表示中提取信息,重建網(wǎng)格三維模型。

Wang等人(2019)首先估計相機姿態(tài)并投影,隨后使用MLP構(gòu)建符號距離函數(shù),使用符號距離函數(shù)隱式函數(shù)表示物體形狀并重建網(wǎng)格模型。Mescheder等人(2019)使用標(biāo)記立方體算法設(shè)計了一種連續(xù)占用網(wǎng)絡(luò)預(yù)測空間占有率,隱式表示三維形狀,聯(lián)合等位面損失和表面法向損失重建網(wǎng)格模型。Chen等人(2019)使用點相對形狀的內(nèi)外狀態(tài)作為點標(biāo)簽建立隱式函數(shù)表示物體,編碼器使用Resnet網(wǎng)絡(luò)對圖像進行編碼,將特征編碼和點坐標(biāo)送入MLP,解碼出點標(biāo)簽的值,將點標(biāo)簽的加權(quán)均方誤差作為損失函數(shù)建立物體的隱式函數(shù),隨后使用提取算法從學(xué)習(xí)到的三維表示中提取網(wǎng)格信息,重建網(wǎng)格形式的三維模型。Popov等人(2020)通過構(gòu)建網(wǎng)格頂點的概率分布函數(shù)隱式表示物體形狀,使用跳連接來連接編碼器和解碼器,提高重建三維模型的性能。

基于隱式函數(shù)的三維重建方法可使用特定的數(shù)據(jù)集和圖像編碼器對人體等特定物體進行重建,Saito等人(2019)使用像素對齊的隱式函數(shù)預(yù)測人體模型的內(nèi)外點標(biāo)簽。使用堆疊沙漏網(wǎng)絡(luò)對圖像進行編碼,通過多層感知機解碼隱式函數(shù),預(yù)測三維點在人體模型的內(nèi)部和外部的分布,構(gòu)建點標(biāo)簽形式的隱式函數(shù),重建人體模型。Saito等人(2020)使用兩級別的像素對齊預(yù)測網(wǎng)絡(luò)進行高分辨率的三維重建。粗糙級別的重建網(wǎng)絡(luò)捕獲圖像的像素特征,高分辨率的網(wǎng)絡(luò)通過預(yù)測的表面法向獲取細(xì)節(jié)特征,隨后與粗糙級別的三維特征共同送入多層感知機建立隱式函數(shù),重建精細(xì)的人體三維模型?;陔[式函數(shù)的三維重建方法使用隱式函數(shù)表示物體形狀,可重建具有完整表面和細(xì)節(jié)信息的三維模型。

1.3.4 基于可微渲染的單張圖像三維重建

大多數(shù)單張圖像三維重建的方法重建單一顏色的網(wǎng)格,一些方法通過可微渲染估計對三維模型進行紋理映射,重建具有顏色紋理的網(wǎng)格模型。Chen等人(2019)設(shè)計了可微渲染框架,通過可微渲染將初步重建的三維模型渲染為二維圖像并與輸入圖像構(gòu)建二維圖像損失,通過估計形狀、照明和紋理來重建具有顏色紋理的網(wǎng)格模型。Niemeyer等人(2020)將二維圖像和深度圖作為基準(zhǔn),利用可微渲染將網(wǎng)格模型渲染為二維圖像并與輸入圖像對比,聯(lián)合深度損失和空間占有損失重建網(wǎng)格模型,重建具有顏色紋理的網(wǎng)格模型。Zhang等人(2020)利用StyleGAN(Karras等, 2019)網(wǎng)絡(luò)生成物體的其他視角的圖像,隨后將多視角圖像作為基準(zhǔn),訓(xùn)練基于可微渲染框架的三維重建網(wǎng)絡(luò),估計物體的形狀、照明和紋理,重建具有顏色紋理的網(wǎng)格模型。

基于可微渲染的單張圖像三維重建使用僅包含圖像的數(shù)據(jù)集進行訓(xùn)練,降低了數(shù)據(jù)集的獲取難度,可重建三維模型的顏色紋理。

典型的單張圖像三維重建網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

1ca7fea6-8f40-11ed-bfe3-dac502259ad0.png

圖4 典型的單張圖像三維重建網(wǎng)絡(luò)結(jié)構(gòu)

02 多張圖像三維重建

單張圖像三維重建的輸入為單一視角的單張圖像,重建的三維模型的完整性較差,因此一些方法在單張圖像方法的基礎(chǔ)上進行多張圖像三維重建,多張圖像三維重建的方法結(jié)合多張圖像的信息重建三維模型,提高三維重建網(wǎng)絡(luò)的性能。

2.1 基于體素的多張圖像三維重建

基于體素的多張圖像三維重建網(wǎng)絡(luò)結(jié)構(gòu)與單張圖像三維重建網(wǎng)絡(luò)類似,為編碼器-解碼器結(jié)構(gòu),將編碼器輸出的多張圖像特征進行融合,并根據(jù)圖像特征對體素模型進行細(xì)化調(diào)整,實現(xiàn)多張圖像三維重建。早期的方法基于循環(huán)神經(jīng)網(wǎng)絡(luò)對圖像特征進行融合,Choy等人(2016)等依次處理多張圖像,將圖像的編碼特征送入3D-LSTM,3D-LSTM單元根據(jù)特征編碼更新潛在編碼,選擇性地更新之前的視圖中的被遮擋部位,通過關(guān)閉輸入門來保留可見部位的潛在編碼,最后3D-CNN解碼重建體素模型,基于圖像特征融合進行多張圖像三維重建,網(wǎng)絡(luò)結(jié)構(gòu)如圖5(a)所示。Kar等人(2017)等通過特征編碼器對多張圖像進行處理,并根據(jù)圖像相應(yīng)的相機參數(shù)投影到三維特征中,以循環(huán)的方式匹配并生成融合的體積特征,由3D-CNN網(wǎng)絡(luò)轉(zhuǎn)換為體素模型。另外一些方法首先利用單視角圖像初步估計形狀,隨后利用相機參數(shù)或姿態(tài)編碼將形狀特征進行融合。Spezialetti等人(2020)通過姿態(tài)估計、姿態(tài)優(yōu)化、體素估計和體素細(xì)化重建體素模型。Xie等人(2019)使用VGG網(wǎng)絡(luò)對不同視圖分別進行編碼,3D卷積解碼獲取相應(yīng)的粗糙模型,然后使用上下文注意力模塊進行特征融合,獲取最終的體素模型,網(wǎng)絡(luò)結(jié)構(gòu)如圖5(b)所示。之后的Pix2Vox++(Xie等, 2020)網(wǎng)絡(luò)的結(jié)構(gòu)與Pix2Vox類似,其中圖像編碼器使用Resnet網(wǎng)絡(luò),提高了圖像編碼的性能。Wang等人(2021)使用二維Transformer作為編碼器,三維Transformer作為解碼器,同時進行特征提取和視圖融合,提高了輸入圖像較多的情況下的體素三維重建方法的性能。

基于循環(huán)神經(jīng)網(wǎng)絡(luò)的重建方法依次處理多張圖像,重建結(jié)果與圖像的輸入順序相關(guān),運行速度較慢。基于形狀特征融合的方法對多張圖像分別進行編碼、解碼,重建粗糙的形狀模型并進行融合,運行速度較快,在圖像較少的情況下重建效果較好,基于圖像特征融合的方法的重建效果隨著圖像數(shù)量增加而提高,在圖像較多的情況下重建效果較好。多張圖像三維重建的網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

1cd0effa-8f40-11ed-bfe3-dac502259ad0.png

圖5 多張圖像三維重建網(wǎng)絡(luò)結(jié)構(gòu)

2.2 基于網(wǎng)格的多張圖像三維重建

基于網(wǎng)格的多張圖像三維重建的輸入通常為已知相機參數(shù)的多張圖像,通過結(jié)合多視圖中每張圖像所對應(yīng)的相機參數(shù),能夠獲取圖像之間的對應(yīng)關(guān)系,從而提高重建三維模型的效果。Bautista等人(2021)由U型網(wǎng)絡(luò)編碼器生成特征圖,然后根據(jù)相機參數(shù)將特征圖連接,通過MLP生成特征點,隨后使用類似空間占用網(wǎng)絡(luò)的方法,預(yù)測空間占有率并通過隱式函數(shù)重建三維模型。Shrestha等人(2021)先估計物體的體素模型,然后利用體素模型渲染出深度圖,再將渲染出的深度圖與多視角立體估計的深度圖進行對比,以從粗到細(xì)的方式利用對比特征將三維模型進一步細(xì)化,最后獲取網(wǎng)格形式的三維模型。Wen等人(2019)在單張圖像三維重建Pixel2mesh(Wang等, 2018)的輸出之后建立多視圖變形網(wǎng)絡(luò),利用圖卷積神經(jīng)網(wǎng)絡(luò)對粗糙模型進行迭代細(xì)化。多視圖變形網(wǎng)絡(luò)由多張輸入圖像的特征生成每個頂點周圍區(qū)域的假設(shè)位置,并估計最優(yōu)變形,網(wǎng)絡(luò)結(jié)構(gòu)與基于形狀特征融合的多張圖像三維重建方法的網(wǎng)絡(luò)結(jié)構(gòu)相似。Yuan等人(2021)將具有權(quán)重的輔助視圖特征添加到主視圖特征中,使用圖卷積神經(jīng)網(wǎng)絡(luò)對初步重建三維模型進行變形,結(jié)合多張圖像特征逐步細(xì)化網(wǎng)格模型。

大多數(shù)重建室內(nèi)場景的方法屬于基于圖像特征融合的多張圖像三維重建,重建室內(nèi)場景的網(wǎng)絡(luò)利用截斷符號距離函數(shù)表示場景的三維形狀,利用行進立方體算法提取網(wǎng)格模型。Murez等人(2020)等使用CNN網(wǎng)絡(luò)提取多張圖像特征并轉(zhuǎn)化為三維特征,將三維特征融合并送入3DCNN回歸截斷符號距離函數(shù)。Sun等人(2021)將特征金字塔網(wǎng)絡(luò)作為編碼器,利用門控循環(huán)神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)進行特征融合,解碼器使用MLP,提高了運行速度,可對室內(nèi)場景進行實時三維重建,網(wǎng)絡(luò)結(jié)構(gòu)如圖5(a)所示。

表1 總結(jié)了本文介紹的圖像三維重建方法。

表1 圖像三維重建方法總結(jié)

1d0f2b8a-8f40-11ed-bfe3-dac502259ad0.png

03 數(shù)據(jù)集與實驗對比

在本節(jié)中,主要針對深度學(xué)習(xí)背景下的圖像三維重建中的常用數(shù)據(jù)集以及不同方法在ShapeNet數(shù)據(jù)集上的實驗對比進行相應(yīng)的介紹。

3.1 數(shù)據(jù)集介紹

目前,在圖像三維重建任務(wù)中可用的數(shù)據(jù)集有ShapeNet、ModelNet、Pix3D、PASCAL 3D+、ObjectNet3D、DTU、NYU depth和KITTI等,這些數(shù)據(jù)集包含了三維模型或注釋信息,其中Shapenet數(shù)據(jù)集和ModelNet數(shù)據(jù)集中的圖像為三維模型渲染合成,不同視角渲染的多視角圖像可用于多張圖像三維重建,Pix3D、PASCAL 3D+和ObjectNet3D數(shù)據(jù)集中的圖像為真實圖像,三維模型與二維圖像相互匹配,PASCAL 3D+和ObjectNet3D數(shù)據(jù)集中的三維模型匹配相同類別的模型,不能與圖像精準(zhǔn)對齊,Pix3D數(shù)據(jù)集中的圖像與三維模型進行像素對齊,DTU數(shù)據(jù)集包含場景的二維圖像、深度圖及點云模型,NYU depth數(shù)據(jù)集和KITTI數(shù)據(jù)集包含二維圖像和深度圖,數(shù)據(jù)集的具體信息如表2所示。

表2 圖像三維重建數(shù)據(jù)集總結(jié)

1d4f11dc-8f40-11ed-bfe3-dac502259ad0.png

ShapeNet數(shù)據(jù)集是三維重建領(lǐng)域的常用數(shù)據(jù)集,由Chang等人(2015)構(gòu)建,收集了大量三維模型并對三維模型添加相應(yīng)的對齊、部位分割和尺寸等注釋。ShapeNet數(shù)據(jù)集包含55個類別的51300個三維模型。大多數(shù)三維重建方法使用由13個類別的44000個模型組成的ShapeNet數(shù)據(jù)集的子集,數(shù)據(jù)集中的二維圖像由三維模型渲染合成。ModelNet數(shù)據(jù)集由Wu等人(2015)創(chuàng)建,收集了660個類別的151128個三維模型。Pix3D數(shù)據(jù)集由Sun等人(2018)構(gòu)建,包含9個類別的395個三維模型和10069張真實圖像,每個三維模型都與一組真實圖像相關(guān)聯(lián),三維模型和圖像中的輪廓進行了像素對齊,具有精確的三維注釋信息。DTU數(shù)據(jù)集由Aan?s等人(2016)構(gòu)建,包含124個不同場景,每個場景具有相應(yīng)的點云模型和49個視角的7種亮度的二維圖像及對應(yīng)的深度圖。PASCAL 3D+數(shù)據(jù)集和ObjectNet3D數(shù)據(jù)集為三維物體識別數(shù)據(jù)集,也可應(yīng)用于三維重建領(lǐng)域。PASCAL 3D+數(shù)據(jù)集(Xiang等, 2014)采用PascalVOC2012數(shù)據(jù)集中的12個類別的剛性物體。數(shù)據(jù)集中的基準(zhǔn)三維模型使用二維圖像中同類物體的三維模型進行配準(zhǔn),并從ImageNe數(shù)據(jù)集中為每個類別的三維模型匹配更多的圖像。ObjectNet3D數(shù)據(jù)集由Xiang等人(2016)構(gòu)建,通過對齊將ImageNet數(shù)據(jù)集中的二維圖像和ShapeNet數(shù)據(jù)集中的三維模型進行匹配,為二維圖像提供三維姿態(tài)標(biāo)注和三維形狀標(biāo)注ObjectNet3D數(shù)據(jù)集共包含100個類別的90127個圖像和44147個三維模型。

NYU Depth數(shù)據(jù)集由Silberman等人(2012)構(gòu)建,包含464個室內(nèi)場景中的407000張圖像及對應(yīng)深度圖。KITTI數(shù)據(jù)集由Geiger等人(2012)構(gòu)建,包含室外場景的93000張二維圖像及對應(yīng)深度圖。

3.2 三維重建的實驗對比

為了驗證不同算法在ShapeNet數(shù)據(jù)集上的性能,本文總結(jié)了8種單張圖像三維重建算法和8種多張圖像三維重建算法,使用倒角距離(CD)、F1分?jǐn)?shù)(F1-score,F(xiàn)1)、交并比(IoU)作為評測指標(biāo)進行對比。CD是三維模型之間的平均最短距離,具體為

1d7667dc-8f40-11ed-bfe3-dac502259ad0.png

式中, R和G表示重建模型和基準(zhǔn)模型, r和g分別表示R和G中的任意一點,1d8cc946-8f40-11ed-bfe3-dac502259ad0.png表示r到G的最短距離,1dab74b8-8f40-11ed-bfe3-dac502259ad0.png表示g到R的最短距離。

F1分?jǐn)?shù)考慮精確率和召回率的標(biāo)準(zhǔn),具體為

1dbac0e4-8f40-11ed-bfe3-dac502259ad0.png

式中, P和R分別表示精確率和召回率。

IoU是重建模型R和基準(zhǔn)模型G之間的交集區(qū)域與并集區(qū)域的比值,具體為

1dd53cf8-8f40-11ed-bfe3-dac502259ad0.png

單張圖像三維重建方法在ShapeNet數(shù)據(jù)集上的具體結(jié)果如表3所示。

表3 ShapeNet 數(shù)據(jù)集上單張圖像實驗對比

1df3f814-8f40-11ed-bfe3-dac502259ad0.png

由表3可知,在CD和F1分?jǐn)?shù)指標(biāo)上,Choy等人(2016)方法表現(xiàn)最差,之后的算法的性能逐步提升,Chen等人(2019)方法和Yao等人(2020)方法的性能表現(xiàn)相當(dāng),Liu等人(2020)方法表現(xiàn)最佳。Choy等人(2016)方法和Fan等人(2017)方法的表現(xiàn)主要受輸出形式的影響,Choy等人(2016)方法的輸出為體素模型,重建體素模型的內(nèi)存需求較大,因此輸出的分辨率較低,性能表現(xiàn)不佳,F(xiàn)an等人(2017)方法的輸出為點云模型,點云模型中的點是離散的,不能完整地表示三維模型,因此在F1分?jǐn)?shù)指標(biāo)上的性能較差。Wang等人(2018)方法通過對橢球體進行變形來獲取網(wǎng)格模型,網(wǎng)格模型可以完整地表示物體表面,因此在CD指標(biāo)上的數(shù)值大于之前的方法在CD指標(biāo)上的數(shù)值,但對物體的孔洞和細(xì)小部位的重建效果較差,在IoU指標(biāo)上的性能較差。Chen等人(2019)方法和Yao等人(2020)方法分別通過構(gòu)建隱式函數(shù)和估計深度、表面法向的方式提升了網(wǎng)格模型重建的性能,Liu等人(2020)方法通過同時預(yù)測分類、形狀和光照的方式達到了最佳性能。多張圖像實驗在ShapeNet數(shù)據(jù)集上的結(jié)果如表4所示。

表4 ShapeNet 數(shù)據(jù)集上多張圖像實驗對比

1e1b33b6-8f40-11ed-bfe3-dac502259ad0.png

由表4可知,Choy等人(2016)方法的性能表現(xiàn)最差,在F1指標(biāo)上Shrestha等人(2021)方法表現(xiàn)最佳,在IoU指標(biāo)上Kar等人(2017)方法表現(xiàn)最佳。Choy等人(2016)方法基于RNN網(wǎng)絡(luò)依次處理圖像,不能充分利用多張輸入圖像之間的特征來細(xì)化三維模型,因此在F1指標(biāo)上表現(xiàn)最差,Shrestha等人(2021)方法較之前的方法提高了21.5%~74.2%,主要是因為利用多視角立體網(wǎng)絡(luò)估計多張圖像的深度圖并使用圖神經(jīng)網(wǎng)絡(luò)對粗糙網(wǎng)格模型進行優(yōu)化。Kar等人(2017)方法在IoU指標(biāo)上表現(xiàn)最好,主要是因為該方法將多張圖像和相機參數(shù)作為輸入,利用相機參數(shù)確定多張圖像之間的相對位置,更加充分地利用了多張圖像的特征。在無需相機參數(shù)的方法中,Xie等人(2020)方法利用上下文感知模塊融合多張圖像重建的三維模型,提升了性能,Wang等人(2021)方法利用Transformer處理長距離依賴關(guān)系,在圖像較多時達到了最佳性能。

04 討論與展望

隨著技術(shù)的發(fā)展,使用深度學(xué)習(xí)技術(shù)的圖像三維重建取得了一定的成果,但圖像三維重建領(lǐng)域仍面臨著許多的問題與挑戰(zhàn)。本節(jié)介紹當(dāng)前圖像三維重建領(lǐng)域中的待解決的問題以及未來的研究方向。

1)三維重建方法的泛化能力

三維重建的目標(biāo)是從任意圖像重建物體的三維模型,但目前的大多數(shù)方法只在與數(shù)據(jù)集中圖像類似的圖像上表現(xiàn)良好,在數(shù)據(jù)集中未包含類別的物體或圖像較少的物體的表現(xiàn)不佳,人體和人臉等特定對象的三維重建方法在未訓(xùn)練的數(shù)據(jù)集上的重建效果相對較差,因此三維重建方法的泛化能力是一個亟待解決的問題。

2)三維重建的精細(xì)度

當(dāng)前的三維重建方法重建的三維模型較粗糙,對細(xì)節(jié)的重建效果較差,三維重建方法的精細(xì)度有待進一步提高,繼續(xù)提高三維重建方法的精細(xì)度是圖像三維重建領(lǐng)域的重點研究方向。

3)三維重建與分割識別任務(wù)相結(jié)合

目前的數(shù)據(jù)集的圖像大多數(shù)是無背景的單個物體圖像,而真實的圖像往往更加復(fù)雜,因此三維重建需要與分割識別進一步相結(jié)合,對復(fù)雜圖像中待重建物體進行語義分割或識別,更加高效地進行重建。在特定物體的重建方法中,人體三維重建方法首先進行語義分割或人體姿態(tài)識別,人臉三維重建方法可與人臉屬性識別相結(jié)合。三維重建與分割識別相結(jié)合是深度學(xué)習(xí)背景下的圖像三維重建技術(shù)發(fā)展中的一個重要方向,同時也是提高圖像三維重建的精細(xì)度的重要方法。

4)三維模型的紋理映射

早期的圖像三維重建方法只能重建物體的三維形狀,近期的圖像三維重建方法可在重建物體形狀后進行紋理映射,通過預(yù)測三維模型網(wǎng)格頂點的顏色或建立紋理貼圖來獲取具有顏色紋理的三維模型,但目前的方法對細(xì)節(jié)部位的紋理映射的效果較差,三維模型的紋理映射方法有待進一步發(fā)展。

5)三維重建的評測體系

三維重建的評測體系需進行進一步完善,一些三維重建的評測指標(biāo)僅適用于特定任務(wù),如IoU適用于體素模型的評測,而F1分?jǐn)?shù)在不同方法所使用的距離閾值不同的情況下無法進行比較。此外,目前的大多數(shù)三維重建算法只對物體重建的形狀進行評測而忽略了紋理信息,三維重建中紋理的評測指標(biāo)也限制了三維模型的紋理映射的發(fā)展,因此未來需要繼續(xù)探索統(tǒng)一高效的三維重建的評測體系。

05 總結(jié)

三維重建技術(shù)受到廣泛關(guān)注,成為當(dāng)前的研究熱點,得益于三維模型的大量出現(xiàn)以及計算機視覺技術(shù)的廣泛應(yīng)用。人工建立三維模型的時間成本較高,深度學(xué)習(xí)背景下的圖像三維重建技術(shù)具有較高的研究價值。

本文主要對近年來深度學(xué)習(xí)背景下的圖像三維重建的分類和研究現(xiàn)狀進行總結(jié),整體分為六個部分:引言、單張圖像三維重建、多張圖像三維重建、數(shù)據(jù)集與實驗對比、討論與展望、總結(jié)。本文旨在為三維重建領(lǐng)域的研究人員提供有價值的參考,促進三維重建領(lǐng)域的進一步發(fā)展。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 三維模型
    +關(guān)注

    關(guān)注

    0

    文章

    54

    瀏覽量

    13347
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5589

    瀏覽量

    123884

原文標(biāo)題:深度學(xué)習(xí)背景下的圖像三維重建技術(shù)進展綜述

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    一種基于多次觀測融合的可交互三維高斯場景重建框架

    在計算機視覺和機器人領(lǐng)域,如何完整、真實地重建一個可交互的三維場景,一直是一個難題。傳統(tǒng)方法往往依賴復(fù)雜的多階段流程,比如先做分割,再進行背景補全或修復(fù),或者需要對每個物體進行密集掃描。這些方式不僅成本高、容易出錯,而且很難擴展
    的頭像 發(fā)表于 09-29 11:12 ?409次閱讀
    一種基于多次觀測融合的可交互<b class='flag-5'>三維</b>高斯場景<b class='flag-5'>重建</b>框架

    AI 驅(qū)動三維逆向:點云降噪算法工具與機器學(xué)習(xí)建模能力的前沿應(yīng)用

    三維逆向工程領(lǐng)域,傳統(tǒng)方法在處理復(fù)雜數(shù)據(jù)和構(gòu)建高精度模型時面臨諸多挑戰(zhàn)。隨著人工智能(AI)技術(shù)的發(fā)展,點云降噪算法工具與機器學(xué)習(xí)建模能力的應(yīng)用,為三維逆向工程帶來了創(chuàng)新性解決方案,
    的頭像 發(fā)表于 08-20 10:00 ?431次閱讀
    AI 驅(qū)動<b class='flag-5'>三維</b>逆向:點云降噪算法工具與機器<b class='flag-5'>學(xué)習(xí)</b>建模能力的前沿應(yīng)用

    航天宏圖全棧式3DGS實景三維重建系統(tǒng)解決方案

    表達的核心技術(shù),通過相機、傳感器等設(shè)備獲取物理空間數(shù)據(jù),并結(jié)合計算機視覺與圖形學(xué)算法,將二圖像轉(zhuǎn)換為三維模型。目前,主流的三維重建方法包括
    的頭像 發(fā)表于 06-27 09:28 ?1063次閱讀
    航天宏圖全棧式3DGS實景<b class='flag-5'>三維重建</b>系統(tǒng)解決方案

    激光三維掃描技術(shù):無噴粉條件高反光表面三維重建的光學(xué)原理與應(yīng)用

    高反光表面的三維重建是工業(yè)檢測、文化遺產(chǎn)保護等領(lǐng)域的關(guān)鍵技術(shù)瓶頸。傳統(tǒng)激光掃描依賴噴粉增強漫反射,但會對精密器件或文物造成不可逆損傷。本文通過融合結(jié)構(gòu)光調(diào)制、偏振分析及多視角協(xié)同技術(shù),構(gòu)建無噴粉測量
    的頭像 發(fā)表于 06-25 10:19 ?589次閱讀

    VirtualLab:光學(xué)系統(tǒng)的三維可視化

    元件和探測器的位置,以及快速了解光在系統(tǒng)內(nèi)的傳播。所應(yīng)用的三維視圖建模技術(shù)可與經(jīng)典的光線追跡相媲美。 如何生成一個系統(tǒng)視圖文檔 一個光學(xué)系統(tǒng)的三維視圖可以通過兩種不同的方式生成: 1.使用“光線結(jié)果
    發(fā)表于 05-30 08:45

    奧比中光助力創(chuàng)想三維登頂世界消費級3D掃描儀市場

    Lite及Raptor Pro提供基于自研多核異構(gòu)三維重建芯片技術(shù)的軟硬件引擎,助力戰(zhàn)略合作伙伴創(chuàng)想三維登頂世界消費級3D掃描儀市場。
    的頭像 發(fā)表于 04-11 11:38 ?1249次閱讀

    【AIBOX 應(yīng)用案例】單目深度估計

    ?Firefly所推出的NVIDIA系列的AIBOX可實現(xiàn)深度估計,該技術(shù)是一種從單張或者多張圖像預(yù)測場景深度信息的技術(shù),廣泛應(yīng)用于計算機視
    的頭像 發(fā)表于 03-19 16:33 ?864次閱讀
    【AIBOX 應(yīng)用案例】單目<b class='flag-5'>深度</b>估計

    使用DLP LightCrafter4500投影結(jié)構(gòu)光進行三維重建遇到的疑問求解

    使用DLP LightCrafter4500 投影結(jié)構(gòu)光進行三維重建,遇到以下問題: (1)投影自己的圖片,如何使投影出的圖片和原圖片的亮度一致。它是可以設(shè)定LED的亮度,我投影出來的圖片亮度很
    發(fā)表于 03-03 06:29

    請問DLP LightCrafter 3000在hdmi模式如何關(guān)閉gamma?

    使用LightCrafter進行三維重建時發(fā)現(xiàn)有g(shù)amma現(xiàn)象,請問能不能控制將其關(guān)閉,還有,由于官網(wǎng)上找不到LightCrafter的資料了,希望技術(shù)人員能補發(fā)一些相關(guān)技術(shù)文檔,比如關(guān)于投影完
    發(fā)表于 02-28 07:24

    請問DLP3010投影圖像DMD格柵如何模糊化?

    我們在使用500W相機采集投影條紋時,相機的采樣率高,把DMD的微鏡格柵也采集到,影響到我們三維重建的數(shù)據(jù)質(zhì)量,會帶來格柵網(wǎng)狀的錯誤數(shù)據(jù)。 是否有方法可以模糊化這種格柵網(wǎng)格,除了使用更高分辨率的DMD方案,或者使用DLP3310這種偽1080P DMD方案是否也可以?
    發(fā)表于 02-27 07:01

    TIDA-00254設(shè)計demo中的三維重建深度值是平行于投影儀光軸還是基線?

    如題。重建深度方向是平行于投影儀光軸還是垂直于投影儀和相機的連線?我沒有在文檔中找到相關(guān)說明。
    發(fā)表于 02-19 07:33

    三維測量在醫(yī)療領(lǐng)域的應(yīng)用

    三維測量在醫(yī)療領(lǐng)域的應(yīng)用十分廣泛,為醫(yī)療診斷、治療及手術(shù)規(guī)劃等提供了重要的技術(shù)支持。以下是對三維測量在醫(yī)療領(lǐng)域應(yīng)用的分析: 一、醫(yī)學(xué)影像的三維重建與分析 CT、MRI等影像的
    的頭像 發(fā)表于 12-30 15:21 ?1080次閱讀

    三維測量軟件的使用技巧

    需要哪些功能,如點云處理、三維建模、數(shù)據(jù)分析等。 軟件兼容性 :確保軟件能夠與現(xiàn)有的硬件設(shè)備兼容,如三維掃描儀、CAD軟件等。 用戶界面 :選擇界面直觀、操作簡便的軟件,以減少學(xué)習(xí)成本。 技術(shù)
    的頭像 發(fā)表于 12-30 15:05 ?1326次閱讀

    三維測量技術(shù)在工業(yè)中的應(yīng)用

    中不可或缺的一部分。 一、三維測量技術(shù)的工作原理 三維測量技術(shù),也稱為三維掃描技術(shù),是一種通過捕
    的頭像 發(fā)表于 12-30 15:01 ?1150次閱讀

    三維掃描與建模的區(qū)別 三維掃描在工業(yè)中的應(yīng)用

    三維掃描與建模的區(qū)別 三維掃描與建模是兩種不同的技術(shù),它們在操作過程、輸出結(jié)果及應(yīng)用領(lǐng)域上存在顯著的區(qū)別。 操作過程 : 三維掃描 :主要通過激光或光學(xué)掃描設(shè)備,獲取實物表面的形狀、紋
    的頭像 發(fā)表于 12-19 14:55 ?1533次閱讀