chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

第一個(gè)大規(guī)模點(diǎn)云的自監(jiān)督預(yù)訓(xùn)練MAE算法Voxel-MAE

3D視覺(jué)工坊 ? 來(lái)源:arxiv ? 作者:arxiv ? 2022-10-21 16:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Chen Min, Xinli Xu, Dawei Zhao, Liang Xiao, Yiming Nie, Bin Dai

基于掩碼的自監(jiān)督預(yù)訓(xùn)練方法在圖像和文本領(lǐng)域得到了成功的應(yīng)用。但是,對(duì)于同樣信息冗余的大規(guī)模點(diǎn)云,基于掩碼的自監(jiān)督預(yù)訓(xùn)練學(xué)習(xí)的研究還沒(méi)有展開。在這篇文章中,我們提出了第一個(gè)將掩碼自編碼器引入大規(guī)模點(diǎn)云自監(jiān)督預(yù)訓(xùn)練學(xué)習(xí)的方法:Voxel-MAE。不同于2D MAE采用RGB像素回歸,3D點(diǎn)云數(shù)量巨大,無(wú)法直接學(xué)習(xí)每個(gè)點(diǎn)云的數(shù)據(jù)分布,因此Voxel-MAE將點(diǎn)云轉(zhuǎn)成體素形式,然后進(jìn)行體素內(nèi)是否包含點(diǎn)云的二分類任務(wù)學(xué)習(xí)。這種簡(jiǎn)單但是有效的分類學(xué)習(xí)策略能使模型在體素級(jí)別上對(duì)物體形狀敏感,進(jìn)而提高下游任務(wù)的精度。即使掩蔽率高達(dá)90%,Voxel-MAE依然可以學(xué)習(xí)有代表性的特征,這是因?yàn)榇笠?guī)模點(diǎn)云的冗余度非常高。另外考慮點(diǎn)云隨著距離增大變稀疏,設(shè)計(jì)了距離感知的掩碼策略。2D MAE的Transformer結(jié)構(gòu)無(wú)法處理大規(guī)模點(diǎn)云,因此Voxel-MAE利用3D稀疏卷積來(lái)構(gòu)建encoder,其中position encoding同樣可以只處理unmasked的體素。我們同時(shí)在無(wú)監(jiān)督領(lǐng)域自適應(yīng)任務(wù)上驗(yàn)證了Voxel-MAE的遷移性能。Voxel-MAE證明了對(duì)大規(guī)模點(diǎn)云進(jìn)行基于掩碼的自監(jiān)督預(yù)訓(xùn)練學(xué)習(xí),來(lái)提高無(wú)人車的感知性能是可行的。KITTI、nuScenes、Waymo數(shù)據(jù)集上,SECOND、CenterPoint和PV-RCNN上的充分的實(shí)驗(yàn)證明Voxel-MAE在大規(guī)模點(diǎn)云上的自監(jiān)督預(yù)訓(xùn)練性能。

Voxel-MAE是第一個(gè)大規(guī)模點(diǎn)云的自監(jiān)督掩碼自編碼器預(yù)訓(xùn)練方法。

不同于MAE中,Voxel-MAE為大規(guī)模點(diǎn)云設(shè)計(jì)了適合的體素二分類任務(wù)、距離感知的掩碼策略和3D稀疏卷積構(gòu)建的encoder等。

Voxel-MAE的自監(jiān)督掩碼自編碼器預(yù)訓(xùn)練模型有效提升了SECOND、CenterPoint和PV-RCNN等算法在KITTI、nuScenes、Waymo數(shù)據(jù)集上的性能。

Voxel-MAE同時(shí)在無(wú)監(jiān)督領(lǐng)域自適應(yīng)3D目標(biāo)檢測(cè)任務(wù)上驗(yàn)證了遷移性能。

算法流程

圖1 Voxel-MAE的整體框圖:首先將大規(guī)模點(diǎn)云轉(zhuǎn)成體素表示,然后采用距離感知的掩碼策略對(duì)體素進(jìn)行mask,再將unmasked的體素送入不對(duì)稱的encoder-decoder網(wǎng)絡(luò),重建體素。最后,采用判斷體素內(nèi)是否包含點(diǎn)云的二分類交叉熵?fù)p失函數(shù)端到端訓(xùn)練整個(gè)網(wǎng)絡(luò)。Encoder采用三維稀疏卷積網(wǎng)絡(luò)構(gòu)建,Decoder采用三維反卷積實(shí)現(xiàn)。

Range-aware Masking

遵循常見(jiàn)的3D點(diǎn)云目標(biāo)檢測(cè)的設(shè)置,我們將WXHXD范圍內(nèi)的大規(guī)模點(diǎn)云沿著XYZ方向分成大小為VWXVHXVD的體素。所有體素的個(gè)數(shù)為nl,包含點(diǎn)云的體素個(gè)數(shù)為nv。

不同于2D圖像,3D點(diǎn)云的分布隨著離激光雷達(dá)的距離增加越來(lái)越稀疏。因此不能對(duì)不同位置的點(diǎn)云采用相同的掩碼策略。

對(duì)此我們?cè)O(shè)計(jì)了距離感知的掩碼策略。即對(duì)近處稠密的點(diǎn)云masking多,對(duì)遠(yuǎn)處稀疏的點(diǎn)云masking少。具體我們將點(diǎn)云分成30米以內(nèi),30-50米,50米以外,然后分別采用r1,r2和r3三種掩碼率來(lái)對(duì)點(diǎn)云體素進(jìn)行隨機(jī)掩蔽,其中r1》r2》r3。剩余的unmasked的體素個(gè)數(shù)為nun。對(duì)于所有包含點(diǎn)云的體素nl,我們將其點(diǎn)云體素分類目標(biāo)設(shè)為1,其他設(shè)為0。

3D Sparse Convolutional Encoder

MAE論文中采用Transformer網(wǎng)絡(luò)架構(gòu)對(duì)訓(xùn)練集中的unmasked部分進(jìn)行自注意力機(jī)制學(xué)習(xí),不會(huì)被masked部分影響。但是由于unmasked的點(diǎn)云數(shù)量仍然很大,幾十萬(wàn)級(jí)別,Transformer網(wǎng)絡(luò)無(wú)法處理如此大規(guī)模unmasked的點(diǎn)云數(shù)據(jù)。研究者通常采用3D SparseConvolutions來(lái)處理大規(guī)模稀疏3D點(diǎn)云。因此不同于2D MAE,Voxel-MAE采用3D SparseConvolutions來(lái)構(gòu)建MAE中的encoder,其采用positional encoding來(lái)只對(duì)unmasked的體素聚合信息,從而類似MAE中的Transformer結(jié)構(gòu),可以降低訓(xùn)練模型的計(jì)算復(fù)雜度。

3D Deconvolutional Decoder

Voxel-MAE采用3D反卷積構(gòu)建decoder。最后一層輸出每個(gè)體素包含點(diǎn)云的概率。decoder網(wǎng)絡(luò)簡(jiǎn)單,只用于訓(xùn)練過(guò)程。

Voxel-MAE的encoder和decoder的結(jié)構(gòu)如下:

Reconstruction Target

2D MAE中采用masked部分的RGB像素回歸作為掩碼自編碼器自監(jiān)督學(xué)習(xí)的目標(biāo),但是3D點(diǎn)云的數(shù)量很大,回歸點(diǎn)云需要學(xué)習(xí)每個(gè)點(diǎn)云的數(shù)據(jù)分布,是難以學(xué)習(xí)的。

對(duì)于3D點(diǎn)云的體素表示,體素內(nèi)是否包含點(diǎn)云非常重要。因此我們?yōu)閂oxel-MAE設(shè)計(jì)了體素是否包含點(diǎn)云的二分類任務(wù)。目標(biāo)是恢復(fù)masked的體素的位置信息。雖然分類任務(wù)很簡(jiǎn)單,但是可以學(xué)習(xí)到大規(guī)模點(diǎn)云的數(shù)據(jù)分布信息,從而提高預(yù)訓(xùn)練模型的性能。

實(shí)驗(yàn)結(jié)果

采用OpenPCDet算法基準(zhǔn)庫(kù),在KITTI、nuScenes、Waymo數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)驗(yàn)證。

1.KITTI

2. Waymo

3. nuScenes

4. 3D點(diǎn)云無(wú)監(jiān)督領(lǐng)域自適應(yīng)任務(wù)驗(yàn)證遷移性能

5. 3D點(diǎn)云重建可視化圖

審核編輯:郭婷


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3874

    瀏覽量

    140500
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    975

    文章

    4313

    瀏覽量

    194530
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    25910

原文標(biāo)題:Voxel-MAE: 第一個(gè)大規(guī)模點(diǎn)云的自監(jiān)督預(yù)訓(xùn)練MAE算法

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.30】大規(guī)模語(yǔ)言模型:從理論到實(shí)踐

    ,在大模型實(shí)踐和理論研究的過(guò)程中,歷時(shí)8個(gè)月完成 《大規(guī)模語(yǔ)言模型:從理論到實(shí)踐》 書的撰寫。希望這本書能夠幫助讀者快速入門大模型的研究和應(yīng)用,并解決相關(guān)技術(shù)問(wèn)題。 本書經(jīng)上市,
    發(fā)表于 03-11 15:16

    個(gè)大規(guī)模電路是怎么設(shè)計(jì)出來(lái)的???

    組合成電路,比如個(gè)電視機(jī)的電路板上電子元件縱橫交錯(cuò),怎么設(shè)計(jì)組合成那樣的,還有各與器件參數(shù)大小怎么算的?數(shù)字電路的各個(gè)門,模擬電路的三極管,單個(gè)是簡(jiǎn)單,就是不明白怎么組合成大規(guī)模電路的。書上就那么幾個(gè)簡(jiǎn)單的電路圖,網(wǎng)上也查詢過(guò)
    發(fā)表于 12-24 20:34

    AU1200 MAE驅(qū)動(dòng)程序的開發(fā)流程是什么?

    隨著移動(dòng)多媒體終端的口益普及,功能的日益強(qiáng)大,人們已經(jīng)不滿足于自己的手持終端僅僅能夠聽MP3音樂(lè),而是希望終端在播放音樂(lè)的同時(shí)能夠播放高質(zhì)量視頻,并支持多種視頻格式。AU 1200作為
    發(fā)表于 03-16 07:38

    請(qǐng)問(wèn)怎樣去設(shè)計(jì)MAE前端驅(qū)動(dòng)軟件?

    MAE是什么?MAE的開發(fā)環(huán)境如何去建立?怎樣對(duì)MAE前端驅(qū)動(dòng)軟件進(jìn)行設(shè)計(jì)及測(cè)試?
    發(fā)表于 04-22 06:04

    神經(jīng)網(wǎng)絡(luò)在訓(xùn)練時(shí)常用的些損失函數(shù)介紹

    個(gè)標(biāo)準(zhǔn)的高斯分布,說(shuō)明我們的這個(gè)損失函數(shù)可能不是很適合這個(gè)問(wèn)題。下圖顯示各訓(xùn)練輪次的對(duì)比MSE收斂得很好,但MSE可能過(guò)擬合了,因?yàn)樗鼜?0輪開始下降變得變換并且開始上升。MAE
    發(fā)表于 10-20 17:14

    AU 1200 MAE驅(qū)動(dòng)程序開發(fā)流程

    AU 1200作為款基于MIPS架構(gòu)的處理器,由于其片上集成了視頻硬件設(shè)備(Media Accel-eration Engine,MAE),使得該處理器無(wú)需配合其他視頻解碼芯片即可完成多種格式的視頻解碼功能 &nb
    發(fā)表于 06-24 09:38 ?736次閱讀
    AU 1200 <b class='flag-5'>MAE</b>驅(qū)動(dòng)程序開發(fā)流程

    個(gè)大規(guī)模超文本網(wǎng)絡(luò)搜索引擎剖析(英文版)

    個(gè)大規(guī)模超文本網(wǎng)絡(luò)搜索引擎剖析(英文版)
    發(fā)表于 04-30 14:09 ?0次下載

    種基于點(diǎn)Voxel(三維體素)特征的深度學(xué)習(xí)方法

    特征學(xué)習(xí)網(wǎng)絡(luò)的結(jié)構(gòu)如下圖所示,包括體素分塊(Voxel Partition),點(diǎn)分組(Grouping),隨機(jī)采樣(Random Sampling),多層的體素特征編碼(Stacked Vo
    的頭像 發(fā)表于 12-07 09:32 ?2.3w次閱讀

    如何向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型中融入知識(shí)?

    本文關(guān)注于向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型(如RoBERTa、BERT等)中融入知識(shí)。
    的頭像 發(fā)表于 06-23 15:07 ?5106次閱讀
    如何向<b class='flag-5'>大規(guī)模</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>語(yǔ)言模型中融入知識(shí)?

    用于弱監(jiān)督大規(guī)模點(diǎn)語(yǔ)義分割的混合對(duì)比正則化框架

    為了解決大規(guī)模點(diǎn)語(yǔ)義分割中的巨大標(biāo)記成本,我們提出了種新的弱監(jiān)督環(huán)境下的混合對(duì)比正則化(HybridCR)框架,該框架與全
    的頭像 發(fā)表于 09-05 14:38 ?1896次閱讀

    PyTorch教程11.9之使用Transformer進(jìn)行大規(guī)模預(yù)訓(xùn)練

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程11.9之使用Transformer進(jìn)行大規(guī)模預(yù)訓(xùn)練.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 15:07 ?0次下載
    PyTorch教程11.9之使用Transformer進(jìn)行<b class='flag-5'>大規(guī)模</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>

    基礎(chǔ)模型監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

    。然而,在監(jiān)督預(yù)訓(xùn)練中,是否數(shù)據(jù)越多越好?數(shù)據(jù)增廣是否始終有效?華為諾亞方舟實(shí)驗(yàn)室與香港科技大學(xué)的研究團(tuán)隊(duì)近期發(fā)現(xiàn): 主流
    的頭像 發(fā)表于 07-24 16:55 ?1062次閱讀
    基礎(chǔ)模型<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

    在各種檢測(cè)器的所有模塊實(shí)現(xiàn)無(wú)監(jiān)督預(yù)訓(xùn)練

    近年來(lái),大規(guī)模預(yù)訓(xùn)練后微調(diào)優(yōu)化方法在計(jì)算機(jī)視覺(jué)中取得了重大進(jìn)展。系列預(yù)訓(xùn)練
    的頭像 發(fā)表于 08-01 11:42 ?1313次閱讀
    在各種檢測(cè)器的所有模塊實(shí)現(xiàn)無(wú)<b class='flag-5'>監(jiān)督</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>

    NeurIPS 2023 | 全新的監(jiān)督視覺(jué)預(yù)訓(xùn)練代理任務(wù):DropPos

    ://arxiv.org/pdf/2309.03576 代碼鏈接:? https://github.com/Haochen-Wang409/DropPos 今天介紹我們?cè)?監(jiān)督視覺(jué)預(yù)訓(xùn)練
    的頭像 發(fā)表于 10-15 20:25 ?852次閱讀
    NeurIPS 2023 | 全新的<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>視覺(jué)<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>代理任務(wù):DropPos

    神經(jīng)網(wǎng)絡(luò)如何用無(wú)監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無(wú)監(jiān)督學(xué)習(xí)是種重要的訓(xùn)練策略。無(wú)監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模
    的頭像 發(fā)表于 07-09 18:06 ?1808次閱讀