chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

跨域小樣本語(yǔ)義分割新基準(zhǔn)介紹

jf_pmFSk4VX ? 來源:GiantPandaCV ? 作者:李響 ? 2022-11-15 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

繼醫(yī)學(xué)圖像處理系列之后,我們又回到了小樣本語(yǔ)義分割主題上,之前閱讀筆記的鏈接我也在文末整理了一下。

小樣本語(yǔ)義分割旨在學(xué)習(xí)只用幾個(gè)帶標(biāo)簽的樣本來分割一個(gè)新的對(duì)象類,大多數(shù)現(xiàn)有方法都考慮了從與新類相同的域中采樣基類的設(shè)置(假設(shè)源域和目標(biāo)域相似)。

然而,在許多應(yīng)用中,為元學(xué)習(xí)收集足夠的訓(xùn)練數(shù)據(jù)是不可行的。這篇論文也將小樣本語(yǔ)義分割擴(kuò)展到了一項(xiàng)新任務(wù),稱為跨域小樣本語(yǔ)義分割(CD-FSS),將具有足夠訓(xùn)練標(biāo)簽的域的元知識(shí)推廣到低資源域,建立了 CD-FSS 任務(wù)的新基準(zhǔn)。

在開始介紹 CD-FSS 之前,我們先分別搞明白廣義上跨域和小樣本學(xué)習(xí)的概念(這個(gè)系列后面的文章就不仔細(xì)介紹了)。小樣本學(xué)習(xí)可以分為 Zero-shot Learning(即要識(shí)別訓(xùn)練集中沒有出現(xiàn)過的類別樣本)和 One-Shot Learning/Few shot Learning(即在訓(xùn)練集中,每一類都有一張或者幾張樣本)。幾個(gè)相關(guān)的重要概念:

域:一個(gè)域 D 由一個(gè)特征空間 X 和特征空間上的邊緣概率分布 P(X) 組成,其中 X=x1,x2,.....,xn,P(X) 代表 X 的分布。

任務(wù):在給定一個(gè)域 D={X, P(X)} 之后,一個(gè)任務(wù) T 由一個(gè)標(biāo)簽空間 Y 以及一個(gè)條件概率分布 P(Y|X) 構(gòu)成,其中,這個(gè)條件概率分布通常是從由特征—標(biāo)簽對(duì) ∈X,∈Y 組成的訓(xùn)練數(shù)據(jù)(已知)中學(xué)習(xí)得到。父任務(wù),如分類任務(wù);子任務(wù),如貓咪分類任務(wù),狗狗分類任務(wù)。

Support set:支撐集,每次訓(xùn)練的樣本集合。

Query set:查詢集,用于與訓(xùn)練樣本比對(duì)的樣本,一般來說 Query set 就是一個(gè)樣本。

在 Support set 中,如果有 n 個(gè)種類,每個(gè)種類有 k 個(gè)樣本,那么這個(gè)訓(xùn)練過程叫 n-way k-shot。如每個(gè)類別是有 5 個(gè) examples 可供訓(xùn)練,因?yàn)橛?xùn)練中還要分 Support set 和 Query set,那么 5-shots 場(chǎng)景至少需要 5+1 個(gè)樣例,至少一個(gè) Query example 去和 Support set 的樣例做距離(分類)判斷。

現(xiàn)階段絕大部分的小樣本學(xué)習(xí)都使用 meta-learning 的方法,即 learn to learn。將模型經(jīng)過大量的訓(xùn)練,每次訓(xùn)練都遇到的是不同的任務(wù),這個(gè)任務(wù)里存在以前的任務(wù)中沒有見到過的樣本。所以模型處理的問題是,每次都要學(xué)習(xí)一個(gè)新的任務(wù),遇見新的 class。 經(jīng)過大量的訓(xùn)練,這個(gè)模型就理所當(dāng)然的能夠很好的處理一個(gè)新的任務(wù),這個(gè)新的任務(wù)就是小樣本啦。

meta-learning 共分為 Training 和 Testing 兩個(gè)階段。

Training 階段的思路流程如下:

將訓(xùn)練集采樣成支撐集和查詢集。

基于支撐集生成一個(gè)分類模型。

利用模型對(duì)查詢集進(jìn)行預(yù)測(cè)生成 predict labels。

通過查詢集 labels(即ground truth)和 predict labels 進(jìn)行 loss 計(jì)算,從而對(duì)分類模型 C 中的參數(shù) θ 進(jìn)行優(yōu)化。

Testing 階段的思路:

利用 Training 階段學(xué)來的分類模型 C 在 Novel class 的支撐集上進(jìn)一步學(xué)習(xí)。

學(xué)到的模型對(duì) Novel class 的查詢集進(jìn)行預(yù)測(cè)(輸出)。

總的來說,meta-learning 核心點(diǎn)之一是如何通過少量樣本學(xué)習(xí)分類模型C。

再來解釋下為什么要研究跨域的小樣本學(xué)習(xí),當(dāng)目標(biāo)任務(wù)與源任務(wù)中數(shù)據(jù)分布差距過大,在源域上訓(xùn)練得到的模型無法很好的泛化到目標(biāo)域上(尤其是基于元學(xué)習(xí)的方法,元學(xué)習(xí)假設(shè)源域和目標(biāo)域相似),從而無法提升目標(biāo)任務(wù)的效果,即在某一個(gè)域訓(xùn)練好的分類模型在其他域上進(jìn)行分類測(cè)試時(shí),效果不理想。

如果能用某種方法使得源域和目標(biāo)域的數(shù)據(jù)在同一分布,則源任務(wù)會(huì)為目標(biāo)任務(wù)提供更加有效的先驗(yàn)知識(shí)。至此,如何解決跨域時(shí)目標(biāo)任務(wù)效果不理想的問題成了跨域的小樣本學(xué)習(xí)。

如下圖,跨域小樣本學(xué)習(xí)對(duì)應(yīng)當(dāng)源域和目標(biāo)域在不同子任務(wù)(父任務(wù)相同)且不同域下時(shí),利用通過源域獲得的先驗(yàn)知識(shí)幫助目標(biāo)任務(wù)提高其 performance,其中已有的知識(shí)叫做源域(source domain),要學(xué)習(xí)的新知識(shí)叫目標(biāo)域(target domain)。

1cff5560-642b-11ed-8abf-dac502259ad0.png

概述

在經(jīng)過對(duì)跨域小樣本學(xué)習(xí)的詳細(xì)介紹后,我們?cè)倩氐桨l(fā)表在 ECCV 2022 的 Cross-Domain Few-Shot Semantic Segmentation 這篇論文上。這篇文章為 CD-FSS 建立了一個(gè)新的基準(zhǔn),在提出的基準(zhǔn)上評(píng)估了具有代表性的小樣本分割方法和基于遷移學(xué)習(xí)的方法,發(fā)現(xiàn)當(dāng)前的小樣本分割方法無法解決 CD-FSS。

所以,提出了一個(gè)新的模型,被叫做 PATNet(Pyramid-Anchor-Transformation),通過將特定領(lǐng)域的特征轉(zhuǎn)化為下游分割模塊的領(lǐng)域無關(guān)的特征來解決 CD-FSS 問題,以快速適應(yīng)新的任務(wù)。

下圖是論文里給出的跨域的小樣本分割與現(xiàn)有任務(wù)的區(qū)別。 和 分別表示源域和目標(biāo)域的數(shù)據(jù)分布。 代表源標(biāo)簽空間, 代表目標(biāo)標(biāo)簽空間。

1d191ef0-642b-11ed-8abf-dac502259ad0.png

Proposed benchmark

提出的 CD-FSS 基準(zhǔn)由四個(gè)數(shù)據(jù)集組成,其特征在于不同大小的域偏移。包括來自 FSS-1000 、Deepglobe、ISIC2018 和胸部 X-ray 數(shù)據(jù)集的圖像和標(biāo)簽。

這些數(shù)據(jù)集分別涵蓋日常物體圖像、衛(wèi)星圖像、皮膚損傷的皮膚鏡圖像和 X 射線圖像。所選數(shù)據(jù)集具有類別多樣性,并反映了小樣本語(yǔ)義分割任務(wù)的真實(shí)場(chǎng)景。如下圖:1dc5c8e4-642b-11ed-8abf-dac502259ad0.png1ed0edf4-642b-11ed-8abf-dac502259ad0.png

在下表中,每個(gè)域的任務(wù)難度從兩個(gè)方面進(jìn)行衡量:1)域遷移(跨數(shù)據(jù)集)和 2)單個(gè)圖像中的類別區(qū)分(在數(shù)據(jù)集中)。 F?echet Inception Distance (FID) 用于測(cè)量這四個(gè)數(shù)據(jù)集相對(duì)于 PASCAL 的域偏移,于是單個(gè)圖像中的域偏移和類別區(qū)分分別由 FID 和 DisFB 測(cè)量。由于單個(gè)圖像中類別之間的區(qū)分對(duì)分割任務(wù)有重要影響,使用 KL 散度測(cè)量前景和背景類別之間的相似性。

整體機(jī)制 with CD-FSS

CD-FSS 的主要挑戰(zhàn)是如何減少領(lǐng)域轉(zhuǎn)移帶來的性能下降。以前的工作主要是學(xué)習(xí) Support-Query 匹配模型,假設(shè)預(yù)訓(xùn)練的編碼器足夠強(qiáng)大,可以將圖像嵌入到下游匹配模型的可區(qū)分特征中。

然而在大領(lǐng)域差距下,只在源域中預(yù)訓(xùn)練的 backbone 在目標(biāo)域中失敗了,如日常生活中的物體圖像到 X-ray 圖像。

為了解決這個(gè)問題,模型需要學(xué)會(huì)將特定領(lǐng)域的特征轉(zhuǎn)化為領(lǐng)域無關(guān)的特征。這樣一來,下游模型就可以通過匹配 Support-Query 的領(lǐng)域無關(guān)的特征來進(jìn)行分割,從而很好地適應(yīng)新領(lǐng)域。

如下圖所示(左邊訓(xùn)練,右邊測(cè)試),整體機(jī)制由三個(gè)主要部分組成,即特征提取 backbone、domain-adaptive hypercorrelation construction 和 domain-agnostic correlation learning。對(duì)于輸入的 Support-Query 圖像,首先用特征提取器提取所有的中間特征。然后,我們?cè)?domain-adaptive hypercorrelation construction 部分引入一個(gè)特別新穎的模塊,稱為 Pyramid Anchor-based Transformation Module(PATM),將特定領(lǐng)域的特征轉(zhuǎn)換為領(lǐng)域無關(guān)的特征。

接下來,用所有轉(zhuǎn)換后的特征圖計(jì)算多層次的相關(guān)圖,并將其送入 domain-agnostic correlation learning 部分。使用兩個(gè)現(xiàn)成的模塊,分別為 4D 卷積金字塔編碼器和 2D 卷積上下文解碼器,被用來以粗到細(xì)的方式產(chǎn)生預(yù)測(cè)掩碼,并具有高效的 4D 卷積。

在測(cè)試階段,論文里還提出了一個(gè)任務(wù)自適應(yīng)微調(diào)推理(TFI)策略,以鼓勵(lì)模型通過 Lkl 損失微調(diào) PATM 來快速適應(yīng)目標(biāo)領(lǐng)域,Lkl 損失衡量 Support-Query 預(yù)測(cè)之間的前景原型相似度。

1ef227f8-642b-11ed-8abf-dac502259ad0.png

PATNet

上一部分提到 PATM 將特定領(lǐng)域的特征轉(zhuǎn)換為領(lǐng)域無關(guān)的特征,這一部分我們仔細(xì)看一下。Pyramid Anchor-based Transformation Module(PATM)的核心思想是學(xué)習(xí) pyramid anchor layers,將特定領(lǐng)域的特征轉(zhuǎn)換為領(lǐng)域無關(guān)的特征。直觀地說,如果我們能找到一個(gè)轉(zhuǎn)化器,將特定領(lǐng)域的特征轉(zhuǎn)化為領(lǐng)域無關(guān)的度量空間,它將減少領(lǐng)域遷移帶來的不利影響。由于領(lǐng)域無關(guān)的度量空間是不變的,所以下游的分割模塊在這樣一個(gè)穩(wěn)定的空間中進(jìn)行預(yù)測(cè)會(huì)更容易。

理想情況下,屬于同一類別的特征在以同樣的方式進(jìn)行轉(zhuǎn)換時(shí)將產(chǎn)生類似的結(jié)果。因此,如果將 Support 特征轉(zhuǎn)換為領(lǐng)域空間中的相應(yīng)錨點(diǎn),那么通過使用相同的轉(zhuǎn)換,也可以使屬于同一類別的 Query 特征轉(zhuǎn)換為接近領(lǐng)域空間中的錨點(diǎn)。采用線性變換矩陣作為變換映射器,因?yàn)樗氲目蓪W(xué)習(xí)參數(shù)較少。

如上一部分中的圖,使用 anchor layers 和 Support 圖像的原型集來計(jì)算變換矩陣。如果 A 代表 anchor layers 的權(quán)重矩陣,P 表示 Support 圖像的原型矩陣。既通過尋找一個(gè)矩陣來構(gòu)建轉(zhuǎn)換矩陣 W,使 WP=A。

任務(wù)自適應(yīng)微調(diào)推理(TFI)策略

為了進(jìn)一步提高 Query 圖像預(yù)測(cè)的準(zhǔn)確率,提出了一個(gè)任務(wù)自適應(yīng)微調(diào)推理(TFI,Task- adaptive Fine-tuning Inference)策略,以便在測(cè)試階段快速適應(yīng)新的對(duì)象。

如果模型能夠?yàn)?Query 圖像預(yù)測(cè)一個(gè)好的分割結(jié)果,那么分割后的 Query 圖像的前景類原型應(yīng)該與 Support 的原型相似。

與優(yōu)化模型中的參數(shù)不同,我們只對(duì) anchor layers 進(jìn)行微調(diào),以避免過擬合。上圖右側(cè)顯示了該策略的流程,在測(cè)試階段,在第 1 步(step 1)中,只有錨層使用提議的 Lkl 進(jìn)行相應(yīng)的更新,Lkl 衡量 Support 和 Query set 的前景類原型之間的相似性。在第 2 步(step 1)中,模型中的所有層都被凍結(jié),并對(duì) Query 圖像進(jìn)行最終預(yù)測(cè)。通過這種方式,模型可以快速適應(yīng)目標(biāo)域,并利用經(jīng)過微調(diào)的 anchor layers 產(chǎn)生的輔助校準(zhǔn)特征對(duì)分割結(jié)果進(jìn)行完善。

如下圖是幾個(gè) 1-shot 任務(wù)的可視化比較結(jié)果。對(duì)于每個(gè)任務(wù),前三列顯示 Support 和 Query set 的金標(biāo)準(zhǔn)。接下來的兩列分別表示沒有PATM 和沒有 TFI 的分割結(jié)果,最后一列顯示了用 Lkl 微調(diào)后的最終分割結(jié)果。

202aff5a-642b-11ed-8abf-dac502259ad0.png

實(shí)驗(yàn)和可視化

如下表所示,是元學(xué)習(xí)和遷移學(xué)習(xí)方法在 CD-FSS 基準(zhǔn)上的 1-way 1-shot 和 5-shot 結(jié)果的平均 IoU。所有的方法都是在 PASCAL VOC 上訓(xùn)練,在 CD-FSS 上測(cè)試。

2071881c-642b-11ed-8abf-dac502259ad0.png

下圖是模型在 CD-FSS 上進(jìn)行 1-way 1-shot 分割的定性結(jié)果。其中,Support 圖像標(biāo)簽是藍(lán)色。Query 圖像標(biāo)簽和預(yù)測(cè)結(jié)果是另一種顏色。

總結(jié)

這篇論文也將小樣本語(yǔ)義分割擴(kuò)展到了一項(xiàng)新任務(wù),稱為跨域小樣本語(yǔ)義分割(CD-FSS)。建立了一個(gè)新的 CD-FSS benchmark 來評(píng)估不同域轉(zhuǎn)移下小樣本分割模型的跨域泛化能力。實(shí)驗(yàn)表明,由于跨域特征分布的巨大差異,目前 SOTA 的小樣本分割模型不能很好地泛化到來自不同域的類別。所以,提出了一種新模型,被叫做 PATNet,通過將特定領(lǐng)域的特征轉(zhuǎn)換為與領(lǐng)域無關(guān)的特征,用于下游分割模塊以快速適應(yīng)新的領(lǐng)域,從而也解決了 CD-FSS 問題。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像處理
    +關(guān)注

    關(guān)注

    28

    文章

    1340

    瀏覽量

    59155
  • FSS
    FSS
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    9924

原文標(biāo)題:ECCV 2022: 跨域小樣本語(yǔ)義分割新基準(zhǔn)

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    黑芝麻智能武當(dāng)C1200家族作為計(jì)算芯片的核心突破

    本文圍繞汽車電子電氣架構(gòu)(EEA)向中央計(jì)算演進(jìn)的技術(shù)需求,分析分布式、集中架構(gòu)的碎片化、間壁壘等痛點(diǎn),重點(diǎn)闡述武當(dāng) C1200 家族作為計(jì)算芯片的核心突破:7nm 異構(gòu)融合架
    的頭像 發(fā)表于 11-20 16:38 ?976次閱讀

    手機(jī)板 layout 走線分割問題

    初學(xué)習(xí)layout時(shí),都在說信號(hào)線不可分割,但是在工作中為了成本不能分割似乎也非絕對(duì)。 在后續(xù)工作中,
    發(fā)表于 09-16 14:56

    模板驅(qū)動(dòng) 無需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開發(fā)難題

    。但是這個(gè)平臺(tái)不適用于小樣本AI模型開發(fā),特別是一些特殊行業(yè),數(shù)據(jù)本來就不多,但又有著需求,因此陷于兩難。面臨這種市場(chǎng)困境,慧視光電推出了一個(gè)全新的AI平臺(tái)Sma
    的頭像 發(fā)表于 09-09 17:57 ?1140次閱讀
    模板驅(qū)動(dòng)  無需訓(xùn)練數(shù)據(jù)  SmartDP解決<b class='flag-5'>小樣本</b>AI算法模型開發(fā)難題

    北京迅為itop-3588開發(fā)板NPU例程測(cè)試deeplabv3 語(yǔ)義分割

    北京迅為itop-3588開發(fā)板NPU例程測(cè)試deeplabv3 語(yǔ)義分割
    的頭像 發(fā)表于 07-22 15:51 ?808次閱讀
    北京迅為itop-3588開發(fā)板NPU例程測(cè)試deeplabv3 <b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b>

    黑芝麻智能時(shí)間同步技術(shù):消除多計(jì)算單元的時(shí)鐘信任鴻溝

    上海2025年7月21日 /美通社/ -- 本文圍繞時(shí)間同步技術(shù)展開,作為智能汽車 "感知-決策-執(zhí)行 -交互" 全鏈路的時(shí)間基準(zhǔn),文章介紹了 PTP、gPTP、CAN 等主流同步
    的頭像 發(fā)表于 07-22 09:17 ?399次閱讀
    黑芝麻智能<b class='flag-5'>跨</b><b class='flag-5'>域</b>時(shí)間同步技術(shù):消除多<b class='flag-5'>域</b>計(jì)算單元的時(shí)鐘信任鴻溝

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    【正點(diǎn)原子STM32MP257開發(fā)板試用】圖像分割 本文介紹了正點(diǎn)原子 STM32MP257 開發(fā)板基于 DeepLab 模型實(shí)現(xiàn)圖像分割的項(xiàng)目設(shè)計(jì)。 DeepLab 模型 DeepLab-v3
    發(fā)表于 06-21 21:11

    凡億Allegro Skill布線功能-檢查分割

    能會(huì)導(dǎo)致設(shè)計(jì)中的缺陷和問題。為了克服這一挑戰(zhàn),可以利用凡億skill中的“檢查分割”命令。這個(gè)工具能夠幫助設(shè)計(jì)者快速而準(zhǔn)確地識(shí)別出高速信號(hào)參考平面的分割問題,從而避免了人工檢查時(shí)可
    的頭像 發(fā)表于 06-19 11:50 ?1838次閱讀
    凡億Allegro Skill布線功能-檢查<b class='flag-5'>跨</b><b class='flag-5'>分割</b>

    異步時(shí)鐘處理方法大全

    該方法只用于慢到快時(shí)鐘的1bit信號(hào)傳遞。在Xilinx器件中,可以使用(* ASYNC_REG = "TRUE" *)標(biāo)記,將兩個(gè)寄存器盡量靠近綜合,降低 亞穩(wěn)態(tài)因?qū)Ь€延遲太大而傳播到第二個(gè)寄存器的可能性。
    的頭像 發(fā)表于 05-14 15:33 ?1255次閱讀
    <b class='flag-5'>跨</b>異步時(shí)鐘<b class='flag-5'>域</b>處理方法大全

    航盛電子推出基于高通和QNX技術(shù)的全新一代墨子艙駕融合平臺(tái)

    for Safety開發(fā)的全球首創(chuàng)單芯片級(jí)艙駕融合解決方案--墨子融合平臺(tái)。該平臺(tái)集成了信息娛樂系統(tǒng)、數(shù)字儀表盤、L2+級(jí)輔助駕駛功能,以及由GPT技術(shù)驅(qū)動(dòng)的下一代語(yǔ)音助手等功能。
    的頭像 發(fā)表于 04-30 09:52 ?1820次閱讀

    西門子伺服電機(jī)簡(jiǎn)明樣本

    西門子伺服電機(jī)簡(jiǎn)明樣本
    發(fā)表于 04-14 15:36 ?2次下載

    探索對(duì)抗訓(xùn)練的概率分布偏差:DPA雙概率對(duì)齊的通用自適的目標(biāo)檢測(cè)方法

    ://arxiv.org/abs/2412.11443 代碼地址: https://github.com/WeitaiKang/SegVG/tree/main ▲ 圖1. UniDAOD任務(wù)示例 (通用目標(biāo)
    的頭像 發(fā)表于 01-15 13:45 ?1163次閱讀
    探索對(duì)抗訓(xùn)練的概率分布偏差:DPA雙概率對(duì)齊的通用<b class='flag-5'>域</b>自適的目標(biāo)檢測(cè)方法

    SparseViT:以非語(yǔ)義為中心、參數(shù)高效的稀疏化視覺Transformer

    (IML)都遵循“語(yǔ)義分割主干網(wǎng)絡(luò)”與“精心制作的手工制作非語(yǔ)義特征提取”相結(jié)合的設(shè)計(jì),這種方法嚴(yán)重限制了模型在未知場(chǎng)景的偽影提取能力。 論文標(biāo)題: Can We Get Rid
    的頭像 發(fā)表于 01-15 09:30 ?794次閱讀
    SparseViT:以非<b class='flag-5'>語(yǔ)義</b>為中心、參數(shù)高效的稀疏化視覺Transformer

    TSP研究:車內(nèi)網(wǎng)聯(lián)服務(wù)向融合、全場(chǎng)景融合、艙駕融合方向拓展

    的數(shù)據(jù)采集與供應(yīng),進(jìn)而為車主提供更加多樣化服務(wù)。其服務(wù)內(nèi)容涵蓋導(dǎo)航服務(wù)、社交服務(wù)、娛樂服務(wù)、遠(yuǎn)程保養(yǎng)服務(wù)、安全服務(wù)等。 來源:公開資料 隨著融合、艙駕融合等趨勢(shì)的演進(jìn),TSP供應(yīng)商也在悄然進(jìn)步,從純車內(nèi)網(wǎng)聯(lián)服務(wù)應(yīng)用向
    的頭像 發(fā)表于 01-06 09:40 ?2050次閱讀
    TSP研究:車內(nèi)網(wǎng)聯(lián)服務(wù)向<b class='flag-5'>跨</b><b class='flag-5'>域</b>融合、全場(chǎng)景融合、艙駕融合方向拓展

    中國(guó)聯(lián)通實(shí)現(xiàn)30TB樣本數(shù)據(jù)城存算分離訓(xùn)練

    數(shù)據(jù)的200公里存算分離拉遠(yuǎn)訓(xùn)練。 據(jù)中國(guó)聯(lián)通官方介紹,此次測(cè)試不僅驗(yàn)證了存算分離技術(shù)在長(zhǎng)距離數(shù)據(jù)傳輸中的安全性和可行性,更通過實(shí)際測(cè)算,展示了其卓越的訓(xùn)練效率。在兩地間的數(shù)據(jù)拉遠(yuǎn)訓(xùn)練中,訓(xùn)練效率高達(dá)97%以上,這一成果為AI技
    的頭像 發(fā)表于 12-13 14:06 ?1009次閱讀

    利用VLM和MLLMs實(shí)現(xiàn)SLAM語(yǔ)義增強(qiáng)

    語(yǔ)義同步定位與建圖(SLAM)系統(tǒng)在對(duì)鄰近的語(yǔ)義相似物體進(jìn)行建圖時(shí)面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了一種面向?qū)ο骃LAM的語(yǔ)義增強(qiáng)(SEO-SLAM)的新型SLAM系統(tǒng),借助視覺語(yǔ)言模型
    的頭像 發(fā)表于 12-05 10:00 ?2153次閱讀
    利用VLM和MLLMs實(shí)現(xiàn)SLAM<b class='flag-5'>語(yǔ)義</b>增強(qiáng)