chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

點云分割相較圖像分割的優(yōu)勢是啥?

3D視覺工坊 ? 來源:3D視覺工坊 ? 作者:3D視覺工坊 ? 2022-12-14 14:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

0. 筆者個人體會

近年來,自動駕駛領(lǐng)域的各項下游任務(wù)基本上都要求了對場景的語義理解,比如自動駕駛車輛要能夠理解哪個是路面、哪個是交通燈、哪個是行人、哪個是樹木,因此點云分割的作用就不言而喻。

但隨著Transformer模型的大火,用于點云分割的深度神經(jīng)網(wǎng)絡(luò)的參數(shù)量越來越龐大,動不動就上億參數(shù)。想要訓(xùn)練如此龐大的模型,除了需要足夠強的GPU外,還需要大量的標簽和數(shù)據(jù)。數(shù)據(jù)很容易得到,64線的激光雷達一幀可以打出十幾萬個點云,現(xiàn)有的雷達數(shù)據(jù)集也不少了。但標簽?zāi)??給點云打過label的人都知道這個過程有多繁瑣(haaaaa)。

由此,點云分割模型便出現(xiàn)了各種各樣的訓(xùn)練范式,主要包括有監(jiān)督、弱監(jiān)督、無監(jiān)督以及半監(jiān)督。那么哪種訓(xùn)練方法才是最優(yōu)的?顯然這個問題在不同場景下有不同的答案。本文將帶領(lǐng)讀者閱讀幾種主流的頂會框架,探討不同訓(xùn)練方法的基本原理。當然筆者水平有限,若有理解不當?shù)牡胤剑瑲g迎大家一起探討,共同學習!

劃重點,本文提到的算法都是開源的!文末附代碼鏈接!各位讀者可在現(xiàn)有模型的基礎(chǔ)上設(shè)計自己的點云分割模型。

1. 點云分割相較圖像分割的優(yōu)勢是啥?

自動駕駛領(lǐng)域的下游任務(wù),我認為主要包括目標檢測、語義分割、實例分割和全景分割。其中目標檢測是指在區(qū)域中提取目標的候選框并分類,語義分割是對區(qū)域中不同類別的物體進行區(qū)域性劃分,實例分割是將每個類別進一步細化為單獨的實例,全景分割則要求對區(qū)域中的每一個像素/點云都進行分類。

因為圖像中存在大量且豐富的紋理信息,且相機相較于雷達很便宜,所以對圖像進行分割非常容易。近年來也涌現(xiàn)了一大批圖像語義分割的深度模型,比如我們所熟知的ViT、TransUNet、YOLOP等等。各自架構(gòu)層出不窮,不停的在各種排行榜上提點,似乎圖像語義分割已經(jīng)非常完美。

1acf8f4a-7b63-11ed-8abf-dac502259ad0.png

那么為啥還要對雷達點云進行分割呢?

主要有三個原因:

(1) 激光雷達可以獲得絕對尺度。

我們知道單目圖像是無法獲得絕對尺度的,并且自動駕駛汽車在長時間運行過程中也會發(fā)生尺度漂移問題。雖然現(xiàn)有的一些方法在嘗試從單目圖像中恢復(fù)出絕對尺度,但基本上也都不太準確。這就導(dǎo)致了單純從圖像中提取出來的語義信息,很難直接應(yīng)用于軌跡規(guī)劃、避障、巡航等自動駕駛?cè)蝿?wù)。

(2) 激光雷達對強/弱光線非常魯棒

視覺語義分割非常受光照和惡劣天氣影響,在過強、過弱、模糊等光線條件下,分割結(jié)果往往會出現(xiàn)很嚴重的畸變。但對于自動駕駛?cè)蝿?wù)來說,惡劣天氣顯然是無法避免的。

(3) 激光雷達可以對環(huán)境進行3D感知

我們希望自動駕駛汽車能夠?qū)χ車恼w環(huán)境進行全方位的感知,這對于激光雷達來說很容易。但對于圖像來說就很難了,僅僅依靠單目圖像很難恢復(fù)出完整的環(huán)境。依靠環(huán)視相機進行BEV感知的話也會帶來像素畸變問題。

1acf8f4a-7b63-11ed-8abf-dac502259ad0.png

2. 都用啥數(shù)據(jù)集?

這里介紹幾個主流的點云分割數(shù)據(jù)集,用于模型的訓(xùn)練和評估。

2.1 nuScenes-Lidarseg數(shù)據(jù)集

數(shù)據(jù)集鏈接:https://www.nuscenes.org/nuscenes#lidarseg(注意總文件有293G)

nuScenes數(shù)據(jù)集是由Motional公司在2019年3月發(fā)布的用于自動駕駛的共有大型數(shù)據(jù)集。數(shù)據(jù)集來源于波士頓和新加坡采集的1000個駕駛場景,每個場景選取了20秒長的視頻,共計大約15小時的駕駛數(shù)據(jù)。場景選取時充分考慮多樣化的駕駛操作、交通情況和意外情況等,例如不同地點、天氣條件、車輛類型、植被、道路標和駕駛規(guī)則等。

完整的nuScenes數(shù)據(jù)集包括大約140萬個圖像、40萬個激光雷達點云、140萬個雷達掃描和4萬個關(guān)鍵幀中的140萬個對象邊界框。其傳感器包括6個攝像頭、1個32線激光雷達、5個毫米波雷達、GPS和IMU,如下圖所示。2020年7月發(fā)布的nuScenes-lidarseg數(shù)據(jù)集,增加了激光雷達點云的語義分割標注,涵蓋了23個前景類和9個背景類。nuScenes-lidarseg在40萬個點云和1000個場景(850個用于訓(xùn)練和驗證的場景,150個用于測試的場景)中包含14億個注釋點。

1ba199cc-7b63-11ed-8abf-dac502259ad0.png

1bd9a2fe-7b63-11ed-8abf-dac502259ad0.png

2.2 SemanticKITTI數(shù)據(jù)集

數(shù)據(jù)集地址:http://www.semantic-kitti.org/index.html

SemanticKITTI數(shù)據(jù)集是一個基于KITTI Vision Benchmark里程計數(shù)據(jù)集的大型戶外點云數(shù)據(jù)集,顯示了市中心的交通、住宅區(qū),以及德國卡爾斯魯厄周圍的高速公路場景和鄉(xiāng)村道路。原始里程計數(shù)據(jù)集由22個序列組成,作者將序列00到10拆分為訓(xùn)練集,將11到21拆分為測試集,并且為了與原始基準保持一致,作者對訓(xùn)練和測試集采用相同的劃分,采用和KITTI數(shù)據(jù)集相同的標定方法,這使得該數(shù)據(jù)集和KITTI數(shù)據(jù)集等數(shù)據(jù)集可以通用。

SemanticKITTI數(shù)據(jù)集作者提供了精確的序列掃描注釋,并且在點注釋中顯示了前所未有的細節(jié),包含28個類。

1c3f6f9e-7b63-11ed-8abf-dac502259ad0.png

2.3 ScribbleKITTI數(shù)據(jù)集

這個數(shù)據(jù)集很新,是CVPR2022 Oral的成果。

論文鏈接:https://arxiv.org/abs/2203.08537

數(shù)據(jù)集鏈接:http://github.com/ouenal/scribblekitti

ScribbleKITTI數(shù)據(jù)集希望通過利用弱監(jiān)督(weak supervision)來實現(xiàn)3D語義分割方法,首次提出了使用涂鴉(scribbles)對雷達點云進行標注。但這也導(dǎo)致那些包含邊緣信息的未標注點并未被使用,且由于缺乏大量標注點(該方法只使用8%的標注點)的數(shù)據(jù),影響了具有長尾分布的類置信度,最終使得模型性能有所下降。

因此,ScribbleKITTI還提出了一個額外的pipeline,用以減少這種性能差距。該pipeline由三個獨立的部分組成,可以與任何LiDAR語義分割模型相結(jié)合。論文代碼采用Cylinder3D模型,在只使用8%標注的情況下,可達到95.7%的全監(jiān)督性能。

1cfc1be4-7b63-11ed-8abf-dac502259ad0.png

論文提出的pipeline可分為訓(xùn)練、偽標簽和蒸餾這三個階段:在訓(xùn)練期間,首先通過PLS來對數(shù)據(jù)進行增強,再訓(xùn)練mean teacher,這有利于后面生成更高質(zhì)量的偽標簽。在偽標簽階段,通過CRB來產(chǎn)生目標標簽,降低由于點云自身屬性降低生成偽標簽的質(zhì)量。在蒸餾階段,通過前面生成的偽標簽再對mean teacher進行訓(xùn)練。

1d572386-7b63-11ed-8abf-dac502259ad0.png

3. 雷達點云表征

深度學習模型都需要一個規(guī)范化的數(shù)據(jù)表征,才能進行合理的特征提取和融合。對于圖像來說,是一個非常規(guī)整的2D表征,即每個像素位置都是固定的,這有利于模型訓(xùn)練和測試。但對于3D點云來說,每幀點云有十幾萬個點,雜亂無章的點云必然不利于模型訓(xùn)練。因此需要對雷達點云進行合理表征。

1d8bb628-7b63-11ed-8abf-dac502259ad0.png

雷達點云主要的表征模式有四種:

(1) 2D Range View表征

非常接近圖像,將點云投影到平面,直接進行2D表征,得到x、y坐標。有時投影過程中還會考慮點云強度、深度以及每個方格是否有點云。網(wǎng)絡(luò)輸入也就是2D Range View,首先提取特征,然后進行特征融合,最后根據(jù)不同的分割頭進行語義訓(xùn)練。

1dac3b14-7b63-11ed-8abf-dac502259ad0.png

(2) 2D BEV表征

對于很多自動駕駛場景,往往是x和y坐標范圍有幾十米上百米,但z方向的坐標只有幾米。因此有些表征就直接省略掉z方向的表達,通過俯視圖得到極坐標表征。

(3) 3D Cylinder Voxel表征

在點云z方向進行Cylinder的劃分,是一種3D描述,典型代表就是Cylinder3D。注意為什么要用Cylinder來表征而不是其他正方體呢?這是因為點云分布的密度是不一樣的,在自車周圍的點云密度很大,在周圍的點云密度很小。通過這種不規(guī)則的劃分就更有利于特征提取。

1e352f64-7b63-11ed-8abf-dac502259ad0.png

(4) 混合表征

顯然每種表征方法都有各自的特點和優(yōu)劣,那么有些文章就將不同的表征模式進行混合,進而得到更強的表征。具體執(zhí)行過程中會先通過不同的支路單獨進行特征提取,之后進行特征融合并輸出頭。

1e89114c-7b63-11ed-8abf-dac502259ad0.png

而針對不同的表征,也有不同的操作。對于3D表征來說,主要是Conv3d和SparseConv,對于2D表征來說,主要是Conv2d和線性Linear。對于直接將點作為輸入的一維表征,使用Conv1d和線性Linear。

1f4e46d8-7b63-11ed-8abf-dac502259ad0.png

4. 全監(jiān)督算法

華南理工大學今年11月在arXiv上傳了論文“Superpoint Transformer for 3D Scene Instance Segmentation”,基于Transformer構(gòu)建了一個新的點云分割框架,名為SPFormer。具體來說,作者提出一種基于Superpoint Transformer的新型端到端三維實例分割方法,它將點云中的隱特征分組為超點,并通過查詢向量直接預(yù)測實例,而不依賴目標檢測或語義分割的結(jié)果。

SPFormer其實針對的不是自動駕駛場景,它主要是在ScanNet和S3DIS這兩個室內(nèi)數(shù)據(jù)集上進行訓(xùn)練和評估。感覺最近很少有自動駕駛場景的全監(jiān)督算法了,主要還是因為對數(shù)據(jù)量和標注要求太大。

這個框架的關(guān)鍵步驟是一個帶有Transformer的新型查詢解碼器,它可以通過超點交叉關(guān)注機制捕捉實例信息并生成實例的超點掩碼。通過基于超點掩碼的雙點匹配,SPFormer可以實現(xiàn)網(wǎng)絡(luò)訓(xùn)練,而不需要中間的聚合步驟,這就加速了網(wǎng)絡(luò)的發(fā)展。

1f7c3aac-7b63-11ed-8abf-dac502259ad0.png

SPFormer的結(jié)果也很漂亮,在ScanNetv2 hidden上的mAP達到了54.9%,比之前最好的結(jié)果高出4.3%。對于具體的18個類別,SPFormer在其中的8個類別上取得了最高的AP得分。特別是在counter類別中,SPFormer超過了之前最好的AP分數(shù)10%以上。

1fb1788e-7b63-11ed-8abf-dac502259ad0.png

總結(jié)一下,全監(jiān)督算法的精度應(yīng)該是最高的,因為接受了完全的標簽訓(xùn)練,但是對數(shù)據(jù)量和標注的要求越來越大。

5. 弱監(jiān)督算法

感覺ScribbleKITTI中提出的弱監(jiān)督Pipeline非常妙了,可以與任何LiDAR語義分割模型相結(jié)合,這里再回顧一下。

1d572386-7b63-11ed-8abf-dac502259ad0.png

這里再介紹一個基于雷達引導(dǎo)的圖像弱監(jiān)督分割算法,感覺很有意思:

是由北京理工大學和上海AI Lab聯(lián)合提出的LWSIS,今年12月7日上傳到arXiv,錄用到了2023 AAAI,可以說非常新!論文題目是“LWSIS: LiDAR-guidedWeakly Supervised Instance Segmentation for Autonomous Driving”。

LWSIS利用現(xiàn)有的點云和3D框,作為訓(xùn)練2D圖像實例分割模型的自然弱監(jiān)督。LWSIS不僅在訓(xùn)練過程中利用了多模態(tài)數(shù)據(jù)中的互補信息,而且顯著降低了稠密二維掩膜的標注成本。具體來說,LWSIS包括兩個關(guān)鍵模塊:點標簽分配(PLA)和基于圖的一致性正則化(GCR)。前者旨在將三維點云自動分配為二維逐點標簽,而后者通過增強多模態(tài)數(shù)據(jù)的幾何和外觀一致性來進一步優(yōu)化預(yù)測。此外,作者對nuScenes進行了二次實例分割標注,命名為nuInsSeg,以鼓勵多模態(tài)感知任務(wù)的進一步研究。

2010878e-7b63-11ed-8abf-dac502259ad0.png

在nuInsSeg和大規(guī)模Waymo上的大量實驗表明,LWSIS在訓(xùn)練過程中只涉及三維數(shù)據(jù),可以顯著改進現(xiàn)有的弱監(jiān)督分割模型。此外,LWSIS還可以與Point Painting等3D目標檢測器結(jié)合,提升3D檢測性能。

204b81cc-7b63-11ed-8abf-dac502259ad0.png

總結(jié)一下,感覺弱監(jiān)督算法是現(xiàn)在的一個主流發(fā)展趨勢。也就是說,放棄標注復(fù)雜的目標,轉(zhuǎn)而去用一些容易得到的表情來引導(dǎo)訓(xùn)練。感覺這種思想非常巧妙!當然用來引導(dǎo)的標簽不一定要是涂鴉或者點云,也可以是其他形式,讀者可以由此設(shè)計自己的弱監(jiān)督分割網(wǎng)絡(luò)。

6. 無監(jiān)督算法

點云分割算法是否可以完全不依賴標簽?

這似乎是個很難回答的問題,沒有標簽,也就完全無法知道物體的類別先驗,就更加無法進行訓(xùn)練。

但香港理工大學的2022 NeurIPS論文“OGC: Unsupervised 3D Object Segmentation from Rigid Dynamics of Point Clouds”似乎回答了這個問題。作者的思路也很巧妙:一輛汽車上的所有點一起向前運動,而場景中其他的點則保持靜止。那么理論上,我們可以基于每個點的運動,將場景中屬于汽車的點和其他點分割開,實現(xiàn)右圖中的效果。

2085b798-7b63-11ed-8abf-dac502259ad0.png

OGC是一種通用的、能分割多個物體的無監(jiān)督3D物體分割方法,這種方法在完全無標注的點云序列上進行訓(xùn)練,從運動信息中學習3D物體分割。經(jīng)過訓(xùn)練后,能夠直接在單幀點云上進行物體分割。OGC框架的核心是:以物體在運動中保持幾何形狀一致作為約束條件,設(shè)計一組損失函數(shù),能夠有效地利用運動信息為物體分割提供監(jiān)督信號。

OGC以單點云作為輸入,并直接在一次向前傳遞中估計多個對象遮罩。OGC利用連續(xù)點云的潛在動態(tài)作為監(jiān)督信號。具體架構(gòu)由三個主要組件組成: (1)目標分割網(wǎng)絡(luò)提取每一點的特征,并從單一點云估計所有對象掩模如橙色塊所示;(2)輔助自監(jiān)督網(wǎng)絡(luò)來估計來自一對點云的每點運動矢量;3)一系列損失函數(shù)充分利用運動動態(tài)來監(jiān)控目標分割骨干。對于前兩個組件,實際上可以靈活地采用現(xiàn)有的提取器和自監(jiān)督運動估計器。

20e92922-7b63-11ed-8abf-dac502259ad0.png

211c4370-7b63-11ed-8abf-dac502259ad0.png

總結(jié)一下,無監(jiān)督算法現(xiàn)在應(yīng)該還比較少。OGC是利用了運動約束,可以很巧妙得訓(xùn)練點云分割網(wǎng)絡(luò)。但是靜止的物體呢?比如樹木、交通燈、建筑。未來應(yīng)該還會有很多大神提出更多巧妙的思路,讓我們拭目以待。

7. 半監(jiān)督算法

全監(jiān)督和弱監(jiān)督都要求對每幀點云都進行標注,只是弱監(jiān)督標注的少,無監(jiān)督不需要標注。那么半監(jiān)督呢?這里半監(jiān)督指的是,一部分的點云需要進行標注,另外一部分不需要任何標注。即,在充分利用到現(xiàn)有的已標注數(shù)據(jù)的基礎(chǔ)上,結(jié)合便于收集的大量無標注數(shù)據(jù),訓(xùn)練泛化能力優(yōu)異的模型。

本文介紹的算法是新加坡國立大學今年6月提出的LaserMix for Semi-Supervised LiDAR Semantic Segmentation。

這項工作的思路非常巧妙!作者發(fā)現(xiàn),無論是靜態(tài)背景還是動態(tài)前景對象,都在LiDAR點云場景中表現(xiàn)出很強的結(jié)構(gòu)先驗,而這種先驗可以很好地由LiDAR的激光束所表征。以最常見的旋轉(zhuǎn)型LiDAR傳感器為例,其以自車為中心向周圍各向同性地發(fā)射具有固定傾角的激光射線,由于不同類別本身具有特殊的分布,由激光射線探測并返回的點便能夠較為精準地捕捉到這些不同類別所蘊藏的結(jié)構(gòu)化信息。

例如,road類在靠近自車周圍的區(qū)域中大量分布,主要由位于下部的射線所收集;vegetation類分布在遠離自車的區(qū)域,主要由位于上部的具有較大正向傾角(inclination)的射線所收集;而car類主要分布在LiDAR點云場景的中部區(qū)域,主要由中間的射線所收集。

21385a24-7b63-11ed-8abf-dac502259ad0.png

216dbac0-7b63-11ed-8abf-dac502259ad0.png

LaserMix管道有兩個分支,一個有標注的學生分支和沒有標注的教師分支。在訓(xùn)練過程中,一個batch由一半有標簽數(shù)據(jù)和一半無標簽數(shù)據(jù)組成。LaserMix收集來自學生和教師的預(yù)測,并使用預(yù)定義的置信度閾值從教師網(wǎng)絡(luò)的預(yù)測中生成偽標簽。對于有標記數(shù)據(jù),LaserMix計算學生網(wǎng)絡(luò)的預(yù)測和真實值之間的交叉熵損失。對于無標簽數(shù)據(jù),LaserMix將每次掃描與隨機標記掃描混合在一起,加上偽標記或真值。然后,令學生對混合數(shù)據(jù)進行預(yù)測,計算交叉熵損失。

21985be0-7b63-11ed-8abf-dac502259ad0.png

LaserMix在Range View和Voxel這兩種點云表征上都進行了驗證,體現(xiàn)出該方法的普適性和適配性。此外,作者將nuScenes、SemanticKITTI、ScribbleKITTI三個數(shù)據(jù)集按照1%,10%,20%和50%的有標注數(shù)據(jù)比例進行了劃分,并認為其余數(shù)據(jù)均為未標注數(shù)據(jù)。結(jié)果顯示,LaserMix極大地提升了半監(jiān)督條件下的LiDAR分割結(jié)果。無論是在不同的數(shù)據(jù)集還是不同的LiDAR點云表征下,LaserMix的分割結(jié)果都明顯地超過了Sup.-only和SOTA的半監(jiān)督學習方法。其中Sup.-only代表僅使用有標注數(shù)據(jù)進行訓(xùn)練后的結(jié)果,可以理解為該任務(wù)的下界(lower bound)。

21c1039c-7b63-11ed-8abf-dac502259ad0.png

總結(jié)一下,半監(jiān)督算法其實同時結(jié)合了弱監(jiān)督和監(jiān)督的優(yōu)點。弱監(jiān)督雖然標注的簡單了,但本質(zhì)上還是需要對每幀數(shù)據(jù)都進行標注,這個工程量也非常大。但是半監(jiān)督居然可以在僅有1%標簽數(shù)據(jù)的情況下進行訓(xùn)練,訓(xùn)練效果還超過了很多同類型的算法,所以我感覺半監(jiān)督在未來也會成為主流發(fā)展趨勢,

8. 結(jié)論

本文首先介紹了點云分割相較于圖像分割的優(yōu)勢,然后闡述了一些點云分割必備的基礎(chǔ)知識,最后分別探討了全監(jiān)督、弱監(jiān)督、無監(jiān)督、半監(jiān)督點云分割算法的網(wǎng)絡(luò)架構(gòu)和基本原理。其中,全監(jiān)督算法精度最高,但要求的數(shù)據(jù)量和標簽也很大。無監(jiān)督往往是依靠環(huán)境中的某種特殊假設(shè)進行訓(xùn)練,在特殊場景下會非常高效。弱監(jiān)督和半監(jiān)督在很少的數(shù)據(jù)標注條件下,達到了和全監(jiān)督幾乎相當?shù)木?。筆者認為,在未來,弱監(jiān)督和半監(jiān)督是點云分割領(lǐng)域的重要發(fā)展趨勢。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1095

    瀏覽量

    42145
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1229

    瀏覽量

    26031
  • 點云
    +關(guān)注

    關(guān)注

    0

    文章

    59

    瀏覽量

    4038

原文標題:點云分割訓(xùn)練哪家強?監(jiān)督,弱監(jiān)督,無監(jiān)督還是半監(jiān)督?

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛模型是如何“看”懂信息的?

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛中,是一個非常重要的感知信號,如激光雷達(LiDAR)生成的,其實就是三維空間里一堆帶坐標、強度和時間戳的
    的頭像 發(fā)表于 11-29 10:25 ?1501次閱讀
    自動駕駛模型是如何“看”懂<b class='flag-5'>點</b><b class='flag-5'>云</b>信息的?

    傳音TEX AI團隊斬獲ICCV 2025大型視頻目標分割挑戰(zhàn)賽雙料亞軍

    近日,國際計算機視覺大會(ICCV 2025)舉辦了第七屆大型視頻目標分割挑戰(zhàn)賽(LSVOS Challenge),傳音TEX AI團隊憑借自主研發(fā)的創(chuàng)新技術(shù)方案,在復(fù)雜視頻目標分割和語言指引視頻
    的頭像 發(fā)表于 10-31 09:42 ?266次閱讀
    傳音TEX AI團隊斬獲ICCV 2025大型視頻目標<b class='flag-5'>分割</b>挑戰(zhàn)賽雙料亞軍

    手機板 layout 走線跨分割問題

    初學習layout時,都在說信號線不可跨分割,但是在工作中為了成本不能跨分割似乎也非絕對。 在后續(xù)工作中,跨分割的基礎(chǔ)都是相鄰層有一面完整的GND參考,跨分割發(fā)生在相鄰的另外一層。 但
    發(fā)表于 09-16 14:56

    基于黃金分割搜索法的IPMSM最大轉(zhuǎn)矩電流比控制

    摘 要:在矢量控制理論的基礎(chǔ)上,研究了內(nèi)嵌式永磁同步電機(IPMSM)基于黃金分割搜索法實現(xiàn)最大轉(zhuǎn)矩電流比控制(MTPA)的方法。該方法利用對理論最優(yōu)電流矢量角表達式進行多項式擬合所得值作為搜索
    發(fā)表于 07-29 16:11

    北京迅為itop-3588開發(fā)板NPU例程測試deeplabv3 語義分割

    北京迅為itop-3588開發(fā)板NPU例程測試deeplabv3 語義分割
    的頭像 發(fā)表于 07-22 15:51 ?808次閱讀
    北京迅為itop-3588開發(fā)板NPU例程測試deeplabv3 語義<b class='flag-5'>分割</b>

    三維掃描效率革命:自由維度(手持 / 機械臂)相較固定式方案的 N 倍產(chǎn)能提升

    革命,相較固定式方案展現(xiàn)出數(shù)倍產(chǎn)能提升優(yōu)勢。 固定式三維掃描方案的效率瓶頸 空間與操作限制 固定式三維掃描設(shè)備安裝位置固定,掃描視野有限。對于大型工件,需多次調(diào)整工件位置或分割掃描,過程繁瑣且易產(chǎn)生拼接誤差。例如
    的頭像 發(fā)表于 07-14 13:57 ?448次閱讀
    三維掃描效率革命:自由維度(手持 / 機械臂)<b class='flag-5'>相較</b>固定式方案的 N 倍產(chǎn)能提升

    迅為RK3576開發(fā)板攝像頭實時推理測試-ppseg?圖像分割

    迅為RK3576開發(fā)板攝像頭實時推理測試-ppseg 圖像分割
    的頭像 發(fā)表于 07-11 14:31 ?696次閱讀
    迅為RK3576開發(fā)板攝像頭實時推理測試-ppseg?<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>

    如何將32個步進伺服驅(qū)動器塞進小型板材分割機中?

    板材分割機是工業(yè)制造中常見的裝備。機器的內(nèi)部空間狹小,如何將多達32個步進伺服驅(qū)動器安裝在其中顯得非常困難。本文將通過基于EtherCAT總線的插板式步進伺服驅(qū)動器剖析其破解之法!傳統(tǒng)銑刀式板材分割
    的頭像 發(fā)表于 07-08 11:37 ?346次閱讀
    如何將32個步進伺服驅(qū)動器塞進小型板材<b class='flag-5'>分割</b>機中?

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    【正點原子STM32MP257開發(fā)板試用】圖像分割 本文介紹了正點原子 STM32MP257 開發(fā)板基于 DeepLab 模型實現(xiàn)圖像分割的項目設(shè)計。 DeepLab 模型 DeepL
    發(fā)表于 06-21 21:11

    凡億Allegro Skill布線功能-檢查跨分割

    能會導(dǎo)致設(shè)計中的缺陷和問題。為了克服這一挑戰(zhàn),可以利用凡億skill中的“檢查跨分割”命令。這個工具能夠幫助設(shè)計者快速而準確地識別出高速信號參考平面的跨分割問題,從而避免了人工檢查時可能出現(xiàn)的疏漏。通過使用這種自動化
    的頭像 發(fā)表于 06-19 11:50 ?1838次閱讀
    凡億Allegro Skill布線功能-檢查跨<b class='flag-5'>分割</b>

    自動駕駛中常提的“”是個?

    ?對自動駕駛有何影響? 是個? (Point Cloud)是一種在三維空間中由大量離
    的頭像 發(fā)表于 05-21 09:04 ?790次閱讀
    自動駕駛中常提的“<b class='flag-5'>點</b><b class='flag-5'>云</b>”是個<b class='flag-5'>啥</b>?

    如何修改yolov8分割程序中的kmodel?

    ;#039;''實驗平臺:01Studio CanMV K230說明:實現(xiàn)攝像頭圖像采集顯示-裂縫分割-寬度計算'''
    發(fā)表于 04-25 08:22

    labview調(diào)用yolo目標檢測、分割、分類、obb

    labview調(diào)用yolo目標檢測、分割、分類、obb、pose深度學習,支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發(fā)表于 03-31 16:28

    LDC1000模擬地和數(shù)字地怎么分割和連接?

    我仔細看了看LDC1000評估板的pcb設(shè)計,該設(shè)計中將數(shù)字地和模擬地分割了,兩個地在LDC的接地散熱片處相連。我發(fā)現(xiàn)LDC1000評估板中將數(shù)字地連在數(shù)字地平面一側(cè),將模擬地連接在模擬地一側(cè)
    發(fā)表于 01-14 08:11

    設(shè)計帶ADC電路時,如何用模擬地與數(shù)字地進行分割來減少數(shù)字地對模擬地的影響?

    我在設(shè)計帶ADC 電路時,希望用模擬地與數(shù)字地進行分割來減少數(shù)字地對模擬地的影響。但是,查詢一些資料得知推薦在ADC 的附近將數(shù)字地與模擬地進行單點連接。 但是,數(shù)字地與模擬地難道不是應(yīng)該在總電源
    發(fā)表于 12-03 07:56