chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PVT++:通用的端對端預(yù)測性跟蹤框架

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-07-30 22:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文提出通用的端對端預(yù)測性跟蹤框架 PVT++,旨在解決目標(biāo)跟蹤的部署時的延遲問題。多種預(yù)訓(xùn)練跟蹤器在 PVT++ 框架下訓(xùn)練后“在線”跟蹤效果大幅提高,某些情況下甚至取得了與“離線”設(shè)定相當(dāng)?shù)男Ч?/span>6d836960-2ee5-11ee-815d-dac502259ad0.png▲ PVT++

引言

單目標(biāo)跟蹤(SOT)是計算機(jī)視覺領(lǐng)域研究已久的問題。給定視頻第一幀目標(biāo)的初始位置與尺度,目標(biāo)跟蹤算法需要在后續(xù)的每一幀確定初始目標(biāo)的位置與尺度。將這類視覺方法部署在機(jī)器人上可以實現(xiàn)監(jiān)測、跟隨、自定位以及避障等智能應(yīng)用。大多數(shù)目標(biāo)跟蹤算法的研究與評估都基于“離線”假設(shè),具體而言,算法按照(離線)視頻的幀號逐幀處理,得出的結(jié)果與對應(yīng)幀相比以進(jìn)行準(zhǔn)確率/成功率計算。

然而,這一假設(shè)在機(jī)器人部署中通常是難以滿足的,因為算法本的延遲在機(jī)器人硬件上不可忽視,當(dāng)算法完成當(dāng)前幀時,世界已經(jīng)發(fā)生了變化,導(dǎo)致跟蹤器輸出的結(jié)果與實際世界的目標(biāo)當(dāng)前狀態(tài)不匹配。換言之,如圖二(a)所示,由于算法的延遲總存在(即使算法達(dá)到實時幀率),輸出的結(jié)果“過時”是不可避免的。

這一思想起源于 ECCV2020 “Towards Streaming Perception”。

由于機(jī)載算力受限,平臺/相機(jī)運動劇烈,我們發(fā)現(xiàn)這一問題在無人機(jī)跟蹤中尤為嚴(yán)重,如圖一所示,相比“離線”評估,考慮算法延遲的“在線”評估可能使得其表現(xiàn)大幅下降。

6d9222ca-2ee5-11ee-815d-dac502259ad0.png

▲ 圖一. “離線”評估與“在線”評估中各個跟蹤器的表現(xiàn)以及 PVT++ 在“在線”跟蹤中的效果?;疑珗D標(biāo)代表離線評估,藍(lán)色圖標(biāo)代表相同方法在線評估,紅色圖標(biāo)代表相同方法使用 PVT++ 轉(zhuǎn)換為預(yù)測性跟蹤器。

如圖二(b)所示,為解決這一問題,預(yù)測性跟蹤器需要提前預(yù)測世界未來的狀態(tài),以彌補(bǔ)算法延遲導(dǎo)致的滯后性。

這一理論詳見 ECCV2020 “Towards Streaming Perception” 以及我們過往的工作 “Predictive Visual Tracking(PVT)”。

而與以往的在跟蹤器后使用卡爾曼濾波的方法不同,在本文中,我們從跟蹤器能提供的視覺特征出發(fā),研發(fā)了端對端的預(yù)測性目標(biāo)跟蹤框架(PVT++)。我們的 PVT++ 有效利用了預(yù)訓(xùn)練跟蹤器可提供的視覺特征并可從數(shù)據(jù)中學(xué)習(xí)目標(biāo)運動的規(guī)律,進(jìn)而做出更準(zhǔn)確的運動預(yù)測。6dd9a0f0-2ee5-11ee-815d-dac502259ad0.png

▲ 圖二.(a)常規(guī)的跟蹤器有延遲,所以結(jié)果總是滯后的。(b)預(yù)測性跟蹤提前預(yù)測世界的狀態(tài),彌補(bǔ)延遲帶來的滯后性。(c)與基于卡爾曼濾波的方法不同,我們的 PVT++ 有效利用了跟蹤器自帶的視覺特征并可從數(shù)據(jù)中學(xué)習(xí)運動的規(guī)律,進(jìn)而做出更準(zhǔn)確的預(yù)測。

PVT++ 是一個通用的可學(xué)習(xí)框架,能適用不同類型的跟蹤器,如圖一所示,在某些場景下,使用 PVT++ 后甚至能取得與“離線”評估相當(dāng)?shù)摹霸诰€”結(jié)果。

貢獻(xiàn)

  1. 我們研發(fā)了端對端的預(yù)測性目標(biāo)跟蹤框架 PVT++,該通用框架適用于不同類型的跟蹤器并能普遍帶來大幅效果提升。
  2. 為實現(xiàn)“從數(shù)據(jù)中發(fā)現(xiàn)目標(biāo)運動的規(guī)律”,我們提出了相對運動因子,有效解決了 PVT++ 的泛化問題。
  3. 為引入跟蹤器已有的視覺特征實現(xiàn)穩(wěn)定預(yù)測,我們設(shè)計了輔助分支聯(lián)合訓(xùn)練機(jī)制,不僅有效利用了跟蹤器的視覺知識而且節(jié)省了計算資源。
  4. 除了 PVT++ 方法,我們還提出了能夠進(jìn)一步量化跟蹤器性能的的新型評估指標(biāo)e-LAE,該指標(biāo)不僅實現(xiàn)了考慮延遲的評估,而且可以區(qū)分實時的跟蹤器。

方法介紹

為了將整個問題用嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)公式成體系地定義出來,我們花了很多時間反復(fù)打磨 PVT++ 的方法部分?jǐn)⑹?,然而不可避免符號偏多結(jié)構(gòu)也比較復(fù)雜(被 reviewer 們多次吐槽...),讀起來有些晦澀難懂容易 lost,在此僅提供一些我 intuitive 的想法,以方便讀者能夠更快理解文章的核心思想。

6e225ad4-2ee5-11ee-815d-dac502259ad0.png

▲ 圖三.(a)PVT++ 宏觀框架與(b)e-LAE 評估指標(biāo)

3.1 e-LAE 評估指標(biāo)

與“離線”設(shè)定不同,“在線”跟蹤(LAE)依照算法實際部署的情況設(shè)計,具體而言,其遵循以下兩條原則:1. 運行時,方法只能處理“最新”的一幀,而非連續(xù)的每一幀。如圖三的時間軸所示,假設(shè)世界時間軸為 ,當(dāng)算法處理第 幀結(jié)束時的世界時間位于 后一點(這里看圖中上方的算法時間戳 ),那么此時的“最新”幀為第二幀,算法的下一幀輸入即為第 2 幀,同理,算法的再下一輸入幀為第 5 幀,可以發(fā)現(xiàn)這樣第 1,3,4 幀由于算法延遲被跳過。2. 評估時,選取跟蹤器在對應(yīng)幀的世界時刻能給出的“最新”的結(jié)果進(jìn)行評估。如圖三所示(這里看圖中下方的算法時間戳 ),假設(shè)我們要評估第 1 幀的結(jié)果,在世界位于第 1 幀時,算法其實并沒有處理完第一幀,故而只能使用“最新”的第 幀的輸出結(jié)果進(jìn)行評估。

類似的評估方式最早被提出于 ECCV2020 “Towards Streaming Perception”,在以前的研究 PVT 中,我們針對跟蹤算法做了上述調(diào)整。

然而,這樣的評估方式有一個缺陷,假設(shè)算法速度快于世界幀率(例如圖三下方的算法時間戳),無論算法有多快,評估時的算法滯后永遠(yuǎn)是一幀。換言之,假設(shè)有兩個精度一樣的跟蹤器 A 與 B,A 的速度 > B > 世界幀率,那么這樣的評估指標(biāo)得到的 A,B 的結(jié)果是一樣的,這樣以來,LAE 便無法將實時跟蹤器的速度納入評估中,無法對實時跟蹤器進(jìn)行有效比較。 為此,我們設(shè)計了擴(kuò)展版 LAE(e-LAE)。e-LAE 并不要求算法“立刻”給出當(dāng)前幀的最新結(jié)果,而是允許一個一幀內(nèi)的延遲閾值 ,評估第 幀時,只需給出 時的最新結(jié)果即可。可以想象到當(dāng) 從 0 逐漸增大到 1 時,實時跟蹤器會慢慢從“在線”結(jié)果變?yōu)椤半x線”結(jié)果(實際結(jié)果從小變大),而跟蹤器越快(延遲越?。?,其對應(yīng)的臨界 也就越小。 利用這一點,我們使用 的 精度 ?精度 曲線下面積表示結(jié)果。這樣再次考慮之前的例子,A 的速度快,它便能在 較小時變?yōu)閿?shù)值更大的“離線”結(jié)果,這樣的曲線下面積也就大于跟蹤器 B,e-LAE 便能成功區(qū)分兩個精度一樣速度不同的實時跟蹤器了。 基于 e-LAE,我們在機(jī)器人平臺 AGX Xavier 上進(jìn)行了眾多跟蹤器詳盡的實驗,涉及 17 個跟蹤器,三個數(shù)據(jù)集,詳見原文圖五,e-LAE 可以區(qū)分一些精度接近而速度有一些差距的實時跟蹤器,如 HiFT 與 SiamAPN++(原文 Remark 2)。我們正在進(jìn)一步檢查所有結(jié)果,最終確認(rèn)后也會將評估的原始結(jié)果開源。

3.2 PVT++

無論算法的速度有多快,其延遲總存在,故而我們設(shè)計了端對端預(yù)測性跟蹤框架彌補(bǔ)延遲。如圖三(a)所示,PVT++ 的結(jié)構(gòu)非常直觀簡單,跟蹤器模塊即普通的已有的(基于深度學(xué)習(xí)的)跟蹤算法,預(yù)測器接受跟蹤器輸出的歷史運動 ,跟蹤器的歷史視覺特征 以及預(yù)設(shè)的落后幀數(shù) 作為輸入,輸出未來幀的目標(biāo)位置。

PVT++ 的結(jié)構(gòu)看上去雖然簡單直觀,但使用離線數(shù)據(jù)訓(xùn)練這一套框架使之協(xié)助在線無人機(jī)跟蹤并非易事,其獨道之處在于以下三點:

相對運動因子:我們發(fā)現(xiàn)訓(xùn)練 PVT++ 會遇到一個核心問題,訓(xùn)練集與測試集的域差距。試想,如果用于訓(xùn)練 PVT++ 的數(shù)據(jù)來自 VID,LaSOT,GOT10k 這些目標(biāo)運動尺度較小,方向速度較規(guī)律的數(shù)據(jù)集,PVT++ 自然會嘗試擬合這些運動規(guī)律而難以泛化到目標(biāo)運動更復(fù)雜,尺度更大的無人機(jī)跟蹤場景。為了解決這一問題,我們將 PVT++ 的訓(xùn)練目標(biāo)改為學(xué)習(xí)/擬合特殊設(shè)計的相對運動因子,即原文公式(4):

6e6484fe-2ee5-11ee-815d-dac502259ad0.png

這里 可以簡單理解為過去幾幀的平均速度,在左側(cè)的公式中,我們可以先假設(shè)目標(biāo)是勻速運動的,即未來幀的相對位置變化正比于未來幀的時間間隔和平均速度,此后我們的神經(jīng)網(wǎng)絡(luò)只需要在這一假設(shè)上做出調(diào)整即為未來的真實運動。這一設(shè)計也就使得預(yù)測器需要學(xué)習(xí)的東西是“相對于勻速運動假設(shè)的偏差值”,即相對運動因子,而非絕對的運動值。

我們發(fā)現(xiàn)這一預(yù)測目標(biāo)在大多數(shù)時候與目標(biāo)的絕對運動是無關(guān)的,故而訓(xùn)練出的網(wǎng)絡(luò)也就不易擬合訓(xùn)練集中的絕對運動,有著更好的泛化性。這一設(shè)計是 PVT++ 能 work 的核心原因。預(yù)測器輸出的相對運動會用于后續(xù)設(shè)計與真值的 L1 損失作為訓(xùn)練損失函數(shù)。

輕量化預(yù)測器結(jié)構(gòu):另一個問題是,預(yù)測器本身必須足夠輕量才能避免預(yù)測模塊引入額外的延遲,否則會導(dǎo)致整個系統(tǒng)失效。為此,我們設(shè)計了輕量有效的網(wǎng)絡(luò)架構(gòu),包含 encoder - interaction - decoder 三部分,并能兼容運動軌跡信息與視覺特征,具體如圖四,其中大多數(shù)網(wǎng)絡(luò)層都可以有著非常小的通道數(shù)以實現(xiàn)極低的延遲(詳見原文表 3)。此外,我們預(yù)測器的設(shè)計也最大程度上復(fù)用了跟蹤器能提供的視覺特征,因此節(jié)省了提取視覺特征所需要的計算資源。6e75b170-2ee5-11ee-815d-dac502259ad0.png▲ 圖四. PVT++ 中預(yù)測器的輕量化網(wǎng)絡(luò)架構(gòu)。 如何有效利用跟蹤器已有的視覺特征:最后,為了使輕量的預(yù)測器做出穩(wěn)健的預(yù)測,我們設(shè)計了一系列訓(xùn)練策略使得參數(shù)量很少的預(yù)測器有效利用(較大型)預(yù)訓(xùn)練跟蹤器的能提供的魯棒視覺表征。具體而言,我們發(fā)現(xiàn)以下兩點設(shè)計尤為重要:
  1. 輔助分支:預(yù)測器的視覺分支(圖四(b))需要當(dāng)前的相對運動信息作為監(jiān)督信號(圖四的虛線框部分)才能用于預(yù)測未來的運動。詳見原文 5.3 節(jié)。
  2. 聯(lián)合訓(xùn)練:在訓(xùn)練 PVT++ 時,跟蹤器模塊需要在早期的訓(xùn)練 epoch 中以較小的學(xué)習(xí)率聯(lián)合預(yù)測器一起訓(xùn)練,進(jìn)而使視覺特征既適用跟蹤器做定位,又適合預(yù)測器做預(yù)測。詳見附錄 B 中的訓(xùn)練設(shè)定與我們的開源代碼。

更多關(guān)于方法的細(xì)節(jié)介紹歡迎大家參考我們的原文(p.s.,我們的附錄 B 提供了一個符號表輔助閱讀...)

實驗部分

全文的實驗設(shè)計包括 e-LAE 的評估(原文圖五)與 PVT++ 的效果、分析兩部分,在這里著重介紹 PVT++ 有關(guān)的實驗。

4.1 設(shè)置

為了公平比較基線跟蹤器,PVT++ 采用與他們訓(xùn)練相同的 LaSOT+GOT10k+VID 作為訓(xùn)練集(均為視頻)(實際上僅用 VID 也可以取得較好效果,詳見附錄 L)。具體而言,我們直接加載了跟蹤器原作者提供的模型參數(shù)作為我們的跟蹤器模塊,再使用離線數(shù)據(jù)訓(xùn)練 PVT++。 評估時我們使用了四個無人機(jī)跟蹤權(quán)威數(shù)據(jù)集 DTB70,UAVDT,UAV20 L 以及 UAV123,廣泛驗證了 PVT++ 的泛化性。

4.2 整體效果

6e820d1c-2ee5-11ee-815d-dac502259ad0.png

▲ 表一

PVT++ 的整體效果如表一所示,我們共將四個跟蹤器轉(zhuǎn)化為了預(yù)測性跟蹤器,在四個無人機(jī)跟蹤數(shù)據(jù)集中,PVT++ 能起到廣泛而顯著的效果??梢园l(fā)現(xiàn) PVT++ 在某些場景下能達(dá)到超過 60% 的提升,甚至與跟蹤器的離線效果相當(dāng)。另外我們也發(fā)現(xiàn)并不是所有的情況下視覺信息都是有效可靠的,例如在 DTB70 中,僅用 PVT++ 的 motion 分支也可以起到一定的效果。

4.3 消融實驗

6eecc40e-2ee5-11ee-815d-dac502259ad0.png

這里著重展示一下消融實驗表四,如果不預(yù)測相對運動因子而是直接用絕對運動的值作為預(yù)測目標(biāo)(和損失函數(shù)設(shè)計),預(yù)測器完全不 work,甚至?xí)胴?fù)面影響。當(dāng)引入視覺特征以后,輔助分支的監(jiān)督和聯(lián)合訓(xùn)練都是必要的,其中聯(lián)合訓(xùn)練的重要性更大。

4.4 與其他方法對比

6f48e84c-2ee5-11ee-815d-dac502259ad0.png

▲ 表五 如表五,我們嘗試了直接在跟蹤器后加入卡爾曼濾波(即沿用 ECCV2020 “streaming” 的思想)以及我們之前雙濾波(PVT)的方案,并且在審稿人的建議下設(shè)計了可學(xué)習(xí)的基線方法(具體而言,我們將卡爾曼濾波中的噪聲項作為可學(xué)習(xí)參數(shù))。這些方法都沒有利用跟蹤器已有的視覺特征,所以綜合效果差于聯(lián)合了運動與視覺特征的 PVT++。

4.5 可視化

▲ 圖五. PVT++與卡爾曼濾波的可視化對比 在圖五中的三個序列中,我們發(fā)現(xiàn)卡爾曼濾波預(yù)測器很難處理目標(biāo)平面內(nèi)旋轉(zhuǎn)以及無人機(jī)視角變化的情況,在這些挑戰(zhàn)中,引入視覺信息進(jìn)行目標(biāo)尺度預(yù)測是尤為有效的。 另外本文也進(jìn)行了更為詳盡的實驗,如屬性分析、與其他運動預(yù)測方法(如 NEXT)的對比、PVT++ 作用在最新的基于 transformer 的跟蹤器等,歡迎大家參閱我們的附錄。

局限性與討論

PVT++ 的局限性在于兩點:
  1. 預(yù)測器使用的視覺特征并不總是魯棒,我們發(fā)現(xiàn)在 DTB70 這類目標(biāo)運動速度很快導(dǎo)致圖片模糊/目標(biāo)出視野,但目標(biāo)運動本身很規(guī)律的數(shù)據(jù)集中其實單靠運動分支就可以起到很好的效果。
  2. 訓(xùn)練策略有些復(fù)雜,特別是聯(lián)合訓(xùn)練時跟蹤器模塊在早期 epoch 用較小學(xué)習(xí)率微調(diào)這一些細(xì)節(jié)我們嘗試了很多次實驗才發(fā)現(xiàn)。

e-LAE 的局限性在于可復(fù)現(xiàn)性與平臺依賴性: 由于這套在線評估系統(tǒng)與算法的實際延遲緊密相關(guān),而延遲又與硬件平臺的狀態(tài)有關(guān),我們發(fā)現(xiàn)甚至同一型號的硬件上的同一實驗結(jié)果也會略有不同(就是說甚至同一臺 AGX 放久了好像也會稍微慢一點....)。我們已經(jīng)嘗試在同一硬件上集中多次運行以盡可能降低硬件的不穩(wěn)定性帶來的影響并會將原始結(jié)果開源以方便大家復(fù)現(xiàn)結(jié)果。另外我們也提供了一個“模擬” AGX 硬件的腳本,可以將硬件上統(tǒng)計的延遲時間直接使用(而不是每次都一定要在機(jī)器人硬件上運行),詳見我們的開源代碼。 預(yù)測性“在線”目標(biāo)跟蹤依然是一個相當(dāng)困難的研究問題,可能并不是增大數(shù)據(jù)量/模型參數(shù)量能輕易解決的,仍有著較大的提升空間?,F(xiàn)在視覺領(lǐng)域正快速涌現(xiàn)一批批“奇觀”,在線延遲也 potentially 有著其他的解決方案值得研究。譬如最近有一篇比較出圈的工作叫 OmniMotion,我們能不能依賴點的 correspondence,考慮從目標(biāo)上每個 point 的運動規(guī)律出發(fā),推理物體 local 到 global 的未來運動?這樣也許能實現(xiàn)比 PVT++ 更出彩的效果。 另外將算法延遲問題引入如今大火的一些 foundation model 研究中也是有意思的方向。譬如 SAM 和 DINOv2 的視覺特征是不是比 ImageNet pre-train 的 ResNet 更適合做視覺運動預(yù)測?如果是的話又該怎么處理這些超大規(guī)模預(yù)訓(xùn)練出的視覺特征?或許可以從 TrackAnything 入手研究。


原文標(biāo)題:PVT++:通用的端對端預(yù)測性跟蹤框架

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:PVT++:通用的端對端預(yù)測性跟蹤框架

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    TDK YFF - AC系列三濾波器:汽車通用的EMC解決方案

    TDK YFF - AC系列三濾波器:汽車通用的EMC解決方案 在汽車電子領(lǐng)域,電磁兼容(EMC)是一個至關(guān)重要的問題。為了滿足汽車應(yīng)用對EMC的嚴(yán)格要求,TDK推出了YFF - AC系列三
    的頭像 發(fā)表于 12-25 16:30 ?146次閱讀

    Nullmax感知規(guī)劃大模型進(jìn)化提速

    近日,2025年度浦東新區(qū)科技發(fā)展基金社會領(lǐng)域數(shù)字化轉(zhuǎn)型專項擬支持項目名單公布。經(jīng)評審,Nullmax申報的《面向城市高級別輔助駕駛的感知規(guī)劃大模型》項目入選。
    的頭像 發(fā)表于 12-22 16:39 ?418次閱讀

    自動駕駛仿真新范式:aiSim如何解決智駕測試的"災(zāi)難挑戰(zhàn)"

    。然而,這種變革對仿真測試帶來了"災(zāi)難挑戰(zhàn)"——傳統(tǒng)仿真方法因感知與規(guī)控接口的消失而亟待重構(gòu)。 2 aiSim:智駕仿真的全鏈路解決方案 2.1 核心架構(gòu)創(chuàng)新 康謀科技的aiSim采用XIL架構(gòu)仿真方案,基于軟件定義接口
    的頭像 發(fā)表于 12-17 14:15 ?227次閱讀
    <b class='flag-5'>端</b>到<b class='flag-5'>端</b>自動駕駛仿真新范式:aiSim如何解決智駕測試的&quot;災(zāi)難<b class='flag-5'>性</b>挑戰(zhàn)&quot;

    如何訓(xùn)練好自動駕駛模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:算法是怎樣訓(xùn)練的?是模仿學(xué)習(xí)、強(qiáng)化學(xué)習(xí)和離線強(qiáng)化學(xué)習(xí)這三類嗎?其實(end-to-end)算法在自動駕駛、智能體
    的頭像 發(fā)表于 12-08 16:31 ?1293次閱讀
    如何訓(xùn)練好自動駕駛<b class='flag-5'>端</b>到<b class='flag-5'>端</b>模型?

    智駕模擬軟件推薦——為什么選擇Keymotek的aiSim?

    隨著自動駕駛技術(shù)的快速發(fā)展,車企和科技公司對于模擬測試平臺的需求越來越強(qiáng)。從L2/ADAS到L4/L5等級的自動駕駛,虛擬模擬已經(jīng)成為其中的關(guān)鍵一環(huán)。特別是對于「」智駕(
    的頭像 發(fā)表于 11-18 11:35 ?712次閱讀

    Nullmax軌跡規(guī)劃論文入選AAAI 2026

    11月8日,全球人工智能頂會 AAAI 2026 公布論文錄用結(jié)果,Nullmax 研發(fā)團(tuán)隊的軌跡規(guī)劃論文成功入選。該論文創(chuàng)新提出一種由粗到精的軌跡預(yù)測框架——DiffRefin
    的頭像 發(fā)表于 11-12 10:53 ?734次閱讀

    自動駕駛中“一段式”和“二段式”有什么區(qū)別?

    [首發(fā)于智駕最前沿微信公眾號]最近有小伙伴提問,一段式和二段式有什么區(qū)別。其實說到自動駕駛里的“
    的頭像 發(fā)表于 10-24 09:03 ?932次閱讀
    自動駕駛中“一段式<b class='flag-5'>端</b>到<b class='flag-5'>端</b>”和“二段式<b class='flag-5'>端</b>到<b class='flag-5'>端</b>”有什么區(qū)別?

    光纜怎么分ab

    光纜分AB是通信工程中的關(guān)鍵步驟,主要用于確保光纖連接的極性正確,避免信號傳輸錯誤。以下是光纜分AB的詳細(xì)說明: 一、AB的定義與作用 定義: A:光纜的起始
    的頭像 發(fā)表于 09-28 09:38 ?1539次閱讀

    南方測繪SmartDesk讓桌面應(yīng)用更智能

    AI浪潮奔涌向前,如何讓傳統(tǒng)桌面應(yīng)用煥發(fā)新生?南方測繪堅持對前沿技術(shù)精進(jìn)探索,對用戶反饋積極回應(yīng),集團(tuán)旗下的南方智能自主研發(fā)SmartDesk開發(fā)框架,深度集成MCP協(xié)議與DPE引擎,為桌面應(yīng)用注入智能“基因”。
    的頭像 發(fā)表于 07-11 10:42 ?1039次閱讀
    南方測繪SmartDesk讓桌面<b class='flag-5'>端</b>應(yīng)用更智能

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機(jī)視覺大會 ICCV 2025 正式公布論文錄用結(jié)果,Nullmax 感知團(tuán)隊在自動駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?1690次閱讀
    Nullmax<b class='flag-5'>端</b>到<b class='flag-5'>端</b>自動駕駛最新研究成果入選ICCV 2025

    創(chuàng)想智控激光焊縫跟蹤系統(tǒng)在發(fā)那科機(jī)器人智能焊接火車墻的應(yīng)用

    ,無法滿足如今的要求。對此,創(chuàng)想智控推出的激光焊縫跟蹤系統(tǒng)與發(fā)那科工業(yè)機(jī)器人深度集成,為墻智能焊接提供高效、精準(zhǔn)的解決方案。 火車墻自動焊的技術(shù)難題 火車墻是車體結(jié)構(gòu)中關(guān)鍵的連接
    的頭像 發(fā)表于 07-03 17:06 ?508次閱讀
    創(chuàng)想智控激光焊縫<b class='flag-5'>跟蹤</b>系統(tǒng)在發(fā)那科機(jī)器人智能焊接火車<b class='flag-5'>端</b>墻的應(yīng)用

    一文帶你厘清自動駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)到大模型轉(zhuǎn)變。傳統(tǒng)模塊化架構(gòu)將感知、預(yù)測、規(guī)劃和控制等子任務(wù)拆分開,分別由不同模塊完成;而
    的頭像 發(fā)表于 05-08 09:07 ?927次閱讀
    一文帶你厘清自動駕駛<b class='flag-5'>端</b>到<b class='flag-5'>端</b>架構(gòu)差異

    小米汽車智駕技術(shù)介紹

    后起之秀,小米在宣布造車前被非常多的人質(zhì)疑,但在“真香”定律下,小米創(chuàng)下了很多友商所不能及的成就。作為科技企業(yè),小米也在智能駕駛領(lǐng)域也不斷研發(fā)及突破,并推送了自動駕駛系統(tǒng)。 小米
    的頭像 發(fā)表于 03-31 18:17 ?4984次閱讀
    小米汽車<b class='flag-5'>端</b>到<b class='flag-5'>端</b>智駕技術(shù)介紹

    動量感知規(guī)劃的自動駕駛框架MomAD解析

    自動駕駛框架實現(xiàn)了感知與規(guī)劃的無縫集成,但通常依賴于一次軌跡預(yù)測,這可能導(dǎo)致控制不穩(wěn)定,并且對單頓感知中的遮擋問題較為敏感。為解決這
    的頭像 發(fā)表于 03-18 09:31 ?1558次閱讀
    動量感知規(guī)劃的<b class='flag-5'>端</b>到<b class='flag-5'>端</b>自動駕駛<b class='flag-5'>框架</b>MomAD解析

    【一文看懂】什么是側(cè)算力?

    向您介紹全方面側(cè)算力:1.側(cè)算力的定義2.側(cè)算力的技術(shù)框架3.側(cè)算力的應(yīng)用價值與場景4.
    的頭像 發(fā)表于 02-24 12:02 ?3659次閱讀
    【一文看懂】什么是<b class='flag-5'>端</b>側(cè)算力?