chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種全新的數(shù)據(jù)蒸餾方法來加速NeRF

電子工程師 ? 來源:機(jī)器之心 ? 作者:Huan Wang ? 2022-08-08 10:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)輻射場 (Neural Radiance Field, or NeRF) [Mildenhall et al., ECCV, 2020] 開啟了用神經(jīng)網(wǎng)絡(luò)表征三維場景的新范式。NeRF 這兩年在學(xué)術(shù)界和工業(yè)界都很火熱, 但 NeRF 一個比較大的缺點(diǎn)是, 渲染速度慢。雖然 NeRF 用的神經(jīng)網(wǎng)絡(luò) (11 層的 MLP) 本身很小, 但是渲染一個像素需要采集一條光線上的很多點(diǎn)(上百個), 這導(dǎo)致渲染一張圖的計算量非常大, 如下圖所示: 用 PyTorch 在單張 NVIDIA V100 顯卡測試, 渲染 400x400 的圖片就需要 6.7s 的時間, 這顯然不利于 NeRF 在業(yè)界落地 (例如各種 AR/VR 設(shè)備, meta universe 等)。

90536e9a-16c2-11ed-ba43-dac502259ad0.png

學(xué)術(shù)界已有不少研究工作來加速 NeRF。比較流行的一種方式是, 給定訓(xùn)練好的 NeRF, 采用更高效的數(shù)據(jù)結(jié)構(gòu)進(jìn)行存儲, 如 Sparse Voxel Octree [Yu et al., ICCV, 2021]. 盡管加速很可觀 (如 [Yu et al., ICCV, 2021] 實現(xiàn)了 3000x 的渲染加速), 但這種數(shù)據(jù)結(jié)構(gòu)也破壞了 NeRF 作為場景表征存儲小的優(yōu)點(diǎn)。譬如, 原始 NeRF 網(wǎng)絡(luò)僅僅 2.4MB 大小就可以存儲一個場景, 而采用 Sparse Voxel Octree 則需要 1.93GB [Yu et al., ICCV, 2021], 這顯然難以在端上應(yīng)用。 因此, 如何加速 NeRF 渲染并維持其存儲小的優(yōu)點(diǎn) (簡言之: 小且快), 仍然是當(dāng)前的研究熱點(diǎn), 也是本文的動因。

908ec648-16c2-11ed-ba43-dac502259ad0.png

Arxiv: https://arxiv.org/abs/2203.17261

Code: https://github.com/snap-research/R2L

Webpage: https://snap-research.github.io/R2L/

核心方法 我們所提出的核心方法從整體范式上來說非常簡單: 通過數(shù)據(jù)蒸餾將神經(jīng)輻射場 (NeRF) 轉(zhuǎn)化為神經(jīng)光場(Neural Light Field, or NeLF) -- 從 NeRF 到 NeLF, 所以我們把方法命名為 R2L。 NeLF 與 NeRF 一樣, 都可以作為一個場景的表征. 不同的是:

NeRF 的輸入是場景中的一個點(diǎn) (該點(diǎn)的坐標(biāo) + 該點(diǎn)所在視線的方向), 輸出是該點(diǎn)的 RGB 和不透明度。NeRF 網(wǎng)絡(luò)的輸出是中間結(jié)果, 并不是圖片上的 RGB 值. 要想得到一個像素的 RGB 值, 需要對該像素對應(yīng)光線上的很多點(diǎn)進(jìn)行積分 (即 Alpha Compositing)。

而 NeLF 的輸入是一條光線, 輸出直接是該光線對應(yīng)圖片上像素值, 不需要 Alpha Compositing 這一步。

對于 Novel View Synthesis 這個任務(wù)來說, NeLF 的優(yōu)勢很明顯: 速度快! 要得到一個像素的 RGB 只需要跑一次網(wǎng)絡(luò), 而 NeRF 則需要跑上百次。

909aa80a-16c2-11ed-ba43-dac502259ad0.png

但它的缺點(diǎn)也很明顯, 主要有兩個缺點(diǎn): (1)NeLF 網(wǎng)絡(luò)要擬合的目標(biāo)函數(shù)比 NeRF 更難。這一點(diǎn)可以這么理解: 在一張圖片上相鄰兩個像素的 RGB 可能突變 (因為遮擋), 而相鄰兩個像素的光線方向其實差別很小, 這就意味著, 這個函數(shù)的輸入稍微變化一點(diǎn), 輸出可能劇變, 這種函數(shù)的不連續(xù)性強(qiáng), 復(fù)雜度高. 相比之下, NeRF 表達(dá)的函數(shù)是空間中的點(diǎn), 空間中的點(diǎn)由于物理世界的連續(xù)性, 相鄰位置上 RGB 劇變的可能性小, 所以函數(shù)相對簡單。 (2)同樣一堆圖片, 用來訓(xùn)練 NeLF 的話, 樣本量會大幅降低. 一張圖片, 長寬為 H, W, 用來訓(xùn)練 NeLF 的話樣本量就是 H*W, 而訓(xùn)練 NeRF 樣本量是 H*W*K (K 是 NeRF 中的一條光線上的采樣點(diǎn)個數(shù), 在 NeRF 原文中 K=256). 所以, 從 NeRF 到 NeLF 訓(xùn)練樣本量會變?yōu)樵瓉淼?1/K, 這是很大的縮減。 神經(jīng)網(wǎng)絡(luò)有效, 通常需要有大量的訓(xùn)練數(shù)據(jù)。從 NeRF 變?yōu)?NeLF, 一方面要擬合的目標(biāo)函數(shù)變復(fù)雜了, 同時樣本量卻減小了, 無疑雪上加霜. 如何解決這些問題呢? 為了解決上述問題(1), 我們需要用一個更深的網(wǎng)絡(luò)來表征更復(fù)雜的函數(shù), 所以在我們的文章中提出了一個 88 層的深度殘差 MLP (deep residual MLP), 網(wǎng)絡(luò)結(jié)構(gòu)如下:

90c1ad74-16c2-11ed-ba43-dac502259ad0.png

這樣的深層網(wǎng)絡(luò)在之前 NeRF 相關(guān)的工作沒有出現(xiàn)過 (之前的 NeRF 相關(guān)工作大多繼承了原始 NeRF 文章中的網(wǎng)絡(luò)結(jié)構(gòu), 小修小補(bǔ))。為了能讓它訓(xùn)練起來, 我們引入了殘差結(jié)構(gòu)的設(shè)計。這一點(diǎn)跟 ResNet 的思想一樣, 本身并沒有更多的創(chuàng)新, 但把這一點(diǎn)引入到 NeRF/NeLF 中, 據(jù)我們所知, 本文是第一篇工作。殘差結(jié)構(gòu)的引入很有必要, 因為深度網(wǎng)絡(luò)沒有殘差結(jié)構(gòu)基本訓(xùn)練不起來, 這一點(diǎn)在文中的消融實驗中也得到了證實。 另一個值得注意的創(chuàng)新點(diǎn)是關(guān)于如何表征一條光線。理論上說, 一條光線用一個方向向量就可以確定, 但如果真的只用方向向量去表征, 就會出現(xiàn)上面說的 “輸入很接近, 輸出卻可能劇變” 的情況, 這就無疑會給 NeLF 網(wǎng)絡(luò)的學(xué)習(xí)帶來困難。為了使得 NeLF 網(wǎng)絡(luò)要學(xué)習(xí)的函數(shù)更容易一些, 我們需要增強(qiáng)輸入的差別. 具體來說, 我們采用一條光線上采樣的多個點(diǎn)的坐標(biāo) (如下圖所示), 將其串聯(lián)(concat) 起來成一個向量, 以此作為該光線的表征, 作為我們 NeLF 網(wǎng)絡(luò)的輸入。

90da5ebe-16c2-11ed-ba43-dac502259ad0.png

這種表征非常簡單直接, 同時也很有效。在文中, 我們也展示了它比之前的 NeLF 工作中用到的其他表征 (例如 Plucker 坐標(biāo) [Sitzmann et al, NeurIPS, 2021]) 要更為有效。 為了解決上述問題(2), 我們使用了一個預(yù)訓(xùn)練好的 NeRF 模型來產(chǎn)生大量偽數(shù)據(jù) (pseudo data)。具體來說, 當(dāng) NeRF 對一個場景學(xué)習(xí)完之后, 給定任意一個角度 (ray direction), NeRF 都能返回這個角度下的圖片, 我們就把這些圖片收集起來, 形成了很多 (origin, direction, RGB) triplets。這些 triplets 就是訓(xùn)練我們模型的數(shù)據(jù), loss 函數(shù)是 mean squared error (MSE), 如下所示:

90e8e182-16c2-11ed-ba43-dac502259ad0.png

在我們的實驗中, 我們收集了 10k 張圖片, 是原始數(shù)據(jù)集 (大概 100 張圖片) 的 100 倍, 這些數(shù)據(jù)確保了有充足的樣本去訓(xùn)練 NeLF。文中的消融實驗也表明, 大量偽數(shù)據(jù)對性能至關(guān)重要 (6.9dB PSNR 提升)! 值得一提的是, 如果僅僅是用偽數(shù)據(jù)訓(xùn)練, 我們的模型最優(yōu)也只能復(fù)制 teacher NeRF, 無法超越它。為了能超越, 我們在原始圖片上再微調(diào) (Finetune) 一下模型。這個操作被證明有非常顯著的效果, 使得我們的模型可以顯著超越 teacher NeRF。 實驗效果 總的來說, 我們的模型在 NeRF Synthetic 數(shù)據(jù)集 (圖片尺寸 400x400) 上實現(xiàn)了將近 30x 的加速, 并把 PSNR 大幅提升了 1.4dB, 比同類其他方法更加高效。

91175b0c-16c2-11ed-ba43-dac502259ad0.png

視覺效果圖對比如下, 可以看到, 相比于 NeRF, 我們的模型 (Ours-2, 即在原始數(shù)據(jù)上微調(diào)后的模型)有肉眼可見的提升, 且計算量僅僅是 NeRF 的 1/26。

912cf0d4-16c2-11ed-ba43-dac502259ad0.png

更多結(jié)果請參考我們的文章。代碼已經(jīng)開源: https://github.com/snap-research/R2L, 歡迎嘗試! 總結(jié)與未來工作 本文提出了一種全新的數(shù)據(jù)蒸餾方法來加速 NeRF: 我們使用訓(xùn)練好的 NeRF 模型產(chǎn)生偽數(shù)據(jù), 來訓(xùn)練提出的深度殘差 NeLF 網(wǎng)絡(luò)。該 NeLF 網(wǎng)絡(luò)可以達(dá)到超過 NeRF 的渲染質(zhì)量, 且實現(xiàn)將近 30x 加速, 并維持了存儲小的優(yōu)點(diǎn)。 未來工作方向: (1) 從 NeRF 中可以得到深度信息, 目前我們還沒提供從 NeLF 網(wǎng)絡(luò)中得到深度信息的方法, 這是不錯的探索方向。(2) 如何用更少, 更高質(zhì)量的偽數(shù)據(jù) (譬如進(jìn)行數(shù)據(jù)篩選) 來加速 NeLF 的訓(xùn)練也非常值得探索。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:ECCV 2022|Snap&東北大學(xué)提出R2L:用數(shù)據(jù)蒸餾加速NeRF

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    一種新的無刷直流電機(jī)反電動勢檢測方法

    無位置傳感器無刷直流電機(jī)的控制算法是近年來研究的熱點(diǎn)之,有霍爾位置信號直流電機(jī)根據(jù)霍爾狀態(tài)確定通斷功率器件。利用無刷直流電機(jī)的數(shù)學(xué)模型,根據(jù)反電動勢檢測原理,提出了一種新的線反電動勢檢測
    發(fā)表于 08-07 14:29

    一種新的無刷直流電機(jī)反電動勢檢測方法

    無位置傳感器無刷直流電機(jī)的控制算法是近年來研究的熱點(diǎn)之,有霍爾位置信號直流電機(jī)根據(jù)霍爾狀態(tài)確定通斷功率器件。利用無刷直流電機(jī)的數(shù)學(xué)模型,根據(jù)反電動勢檢測原理,提出了一種新的線反電動勢檢測
    發(fā)表于 08-04 14:59

    電池?zé)峁芾恚菏褂脭?shù)字孿生和多尺度方法來設(shè)計和優(yōu)化能源效率

    理系統(tǒng)(BTMS),但同時也會增加額外的能源需求。本文介紹了一種多方面方法,不僅可用于開發(fā)和優(yōu)化BTMS,同時還能平衡電池壽命、快速充電能力、車輛續(xù)航里程和安全性。S
    的頭像 發(fā)表于 07-23 10:50 ?378次閱讀
    電池?zé)峁芾恚菏褂脭?shù)字孿生和多尺度<b class='flag-5'>方法來</b>設(shè)計和優(yōu)化能源效率

    想在rtsmart中使用uart2,是不是只能通過修改設(shè)備樹方法來實現(xiàn)uart2的復(fù)用呀?

    我想在rtsmart中使用uart2,是不是只能通過修改設(shè)備樹方法來實現(xiàn)uart2的復(fù)用呀? 修改設(shè)備樹后如何只編譯設(shè)備樹文件? 編譯生成的文件可以直接替換到廬山派里嗎,具體替換路徑在哪里呀?
    發(fā)表于 06-24 07:04

    使用ad9467-250采集低頻信號,請問有什么方法來提高sfdr嗎?

    你好,我現(xiàn)在在使用ad9467-250采集低頻信號,在測試3Mhz部分時sfdr只有86,采樣頻率是102.4Mhz,請問有什么方法來提高sfdr嗎
    發(fā)表于 04-24 06:05

    PDM產(chǎn)品數(shù)據(jù)管理是什么?文詳細(xì)了解三品PDM系統(tǒng)

    在當(dāng)今競爭激烈的商業(yè)環(huán)境中,企業(yè)為了提升自身的競爭力,不斷尋求各種方法來優(yōu)化產(chǎn)品開發(fā)流程、提高生產(chǎn)效率以及降低成本。PDM(產(chǎn)品數(shù)據(jù)管理)系統(tǒng)作為一種強(qiáng)大的工具,正在逐漸成為企業(yè)實現(xiàn)這些目標(biāo)的關(guān)鍵。
    的頭像 發(fā)表于 03-25 14:01 ?682次閱讀

    用ADS1258做了塊采集卡,請問有比較簡單的測試方法來測試我的采集卡的性能和精度嗎?

    您好!我現(xiàn)在用ADS1258做了塊采集卡,請問有比較簡單的測試方法來測試我的采集卡的性能和精度嗎。 我現(xiàn)在用普通的信號發(fā)生器產(chǎn)生了個正弦波,1KHz的頻率,用采集卡采集了16*1024個
    發(fā)表于 02-10 07:49

    大連理工提出基于Wasserstein距離(WD)的知識蒸餾方法

    的機(jī)制,應(yīng)用于中間層蒸餾時存在問題,其無法處理不重疊的分布且無法感知底層流形的幾何結(jié)構(gòu)。 為了解決這些問題,大連理工大學(xué)的研究人員提出了一種基于 Wasserstein 距離(WD)的知識蒸餾
    的頭像 發(fā)表于 01-21 09:45 ?862次閱讀

    一種降低VIO/VSLAM系統(tǒng)漂移的新方法

    本文提出了一種方法,通過使用點(diǎn)到平面匹配將VIO/VSLAM系統(tǒng)生成的稀疏3D點(diǎn)云與數(shù)字孿生體進(jìn)行對齊,從而實現(xiàn)精確且全球致的定位,無需視覺數(shù)據(jù)關(guān)聯(lián)。所提
    的頭像 發(fā)表于 12-13 11:18 ?1021次閱讀
    <b class='flag-5'>一種</b>降低VIO/VSLAM系統(tǒng)漂移的新<b class='flag-5'>方法</b>

    一種面向飛行試驗的數(shù)據(jù)融合框架

    天地氣動數(shù)據(jù)一致性,針對某外形飛行試驗數(shù)據(jù)開展了典型對象的天地氣動數(shù)據(jù)融合方法研究。結(jié)合數(shù)據(jù)挖掘的隨機(jī)森林
    的頭像 發(fā)表于 11-27 11:34 ?1145次閱讀
    <b class='flag-5'>一種</b>面向飛行試驗的<b class='flag-5'>數(shù)據(jù)</b>融合框架

    全面總結(jié)動態(tài)NeRF

    1. 摘要 神經(jīng)輻射場(NeRF)是一種新穎的隱式方法,可以實現(xiàn)高分辨率的三維重建和表示。在首次提出NeRF的研究之后,NeRF獲得了強(qiáng)大的
    的頭像 發(fā)表于 11-14 16:48 ?1386次閱讀
    全面總結(jié)動態(tài)<b class='flag-5'>NeRF</b>

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機(jī)電系統(tǒng)中數(shù)據(jù)驅(qū)動故障檢測模型的性能和可解釋性。引入了一種混合因果發(fā)現(xiàn)算法發(fā)現(xiàn)監(jiān)測變量之間的繼承因果關(guān)系。順序連接因果變量的因果路徑用作接收場,使用多尺度卷積提取特征。基于分層注意
    的頭像 發(fā)表于 11-12 09:52 ?1399次閱讀
    <b class='flag-5'>一種</b>基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    PyTorch GPU 加速訓(xùn)練模型方法

    在深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時間的重要手段。PyTorch作為個流行的深度學(xué)習(xí)框架,提供了豐富的工具和方法來利用GPU進(jìn)行模型訓(xùn)練。 1. 了解GPU加速
    的頭像 發(fā)表于 11-05 17:43 ?1939次閱讀

    一種創(chuàng)新的動態(tài)軌跡預(yù)測方法

    本文提出了一種動態(tài)軌跡預(yù)測方法,通過結(jié)合歷史幀和歷史預(yù)測結(jié)果提高預(yù)測的穩(wěn)定性和準(zhǔn)確性。它引入了歷史預(yù)測注意力模塊,以編碼連續(xù)預(yù)測之間的動態(tài)關(guān)系,并通過三重因子注意力模塊實現(xiàn)了最先進(jìn)的性能。本
    的頭像 發(fā)表于 10-28 14:34 ?1455次閱讀
    <b class='flag-5'>一種</b>創(chuàng)新的動態(tài)軌跡預(yù)測<b class='flag-5'>方法</b>

    一種簡單高效配置FPGA的方法

    本文描述了一種簡單高效配置FPGA的方法,該方法利用微處理器從串行外圍接口(SPI)閃存配置FPGA設(shè)備。這種方法減少了硬件組件、板空間和成本。
    的頭像 發(fā)表于 10-24 14:57 ?2045次閱讀
    <b class='flag-5'>一種</b>簡單高效配置FPGA的<b class='flag-5'>方法</b>