chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新的分割模型Stable-SAM

3D視覺(jué)工坊 ? 來(lái)源:3D視覺(jué)工坊 ? 2023-12-29 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

0. 筆者個(gè)人體會(huì)

分割一切模型(SAM)這幾年在CV領(lǐng)域應(yīng)用很多,很多文章都在努力提高SAM的分割精度,但SAM分割的前提是高質(zhì)量的提示(點(diǎn)、框)。但是實(shí)踐中的SAM經(jīng)常遇到不準(zhǔn)確的提示,尤其是眾包標(biāo)注平臺(tái),這種不準(zhǔn)確的提示會(huì)導(dǎo)致分割錯(cuò)誤。

這也就是Stable Segment Anything Model這篇文章想要解決的問(wèn)題,提出了一種新的分割模型Stable-SAM,希望遇到錯(cuò)誤提示時(shí)也能實(shí)現(xiàn)穩(wěn)定分割!

1. 效果展示

SAM、HQ-SAM、Stable-SAM在提供次優(yōu)提示時(shí)的性能比較,Stable-SAM明顯優(yōu)于其他算法。

0a281586-9d31-11ee-8b88-92fbcf53809c.jpg

SAM和Stable-SAM的預(yù)測(cè)Mask和圖像特征的權(quán)重對(duì)比,橙色圓圈表示注意力權(quán)重,半徑越大表示得分越高。(a) 當(dāng)提供高質(zhì)量提示時(shí),SAM分割結(jié)果很好。(b) 微小的提示修改會(huì)導(dǎo)致不穩(wěn)定的分割輸出,SAM錯(cuò)誤分割了背景。(c) Stable-SAM通過(guò)將更多的特征采樣注意力轉(zhuǎn)移到目標(biāo)對(duì)象上來(lái)準(zhǔn)確地分割目標(biāo)對(duì)象。

2. 具體原理是什么?

Stable-SAM的具體pipeline由三部分組成:

(a)是SAM的Mask解碼器中的可變形采樣插件(DSP)和可變形路由插件(DRP)。DSP采用小偏移網(wǎng)絡(luò)(b)來(lái)預(yù)測(cè)特征采樣偏移。隨后DSP在更新的采樣位置對(duì)可變形圖像特征進(jìn)行重新采樣,并將它們饋送到SAM的標(biāo)記到圖像注意力。DRP采用一個(gè)小型MLP網(wǎng)絡(luò)(c)來(lái)根據(jù)輸入提示質(zhì)量調(diào)節(jié)DSP激活的程度。注意,DSP自適應(yīng)地單獨(dú)調(diào)整圖像特征采樣位置,不會(huì)改變?cè)糞AM模型。

0a573726-9d31-11ee-8b88-92fbcf53809c.jpg

3. 和其他SOTA方法對(duì)比如何?

在不同質(zhì)量的提示下,SAM、DT-SAM(微調(diào)SAM的Mask解碼器)、PT-SAM(微調(diào)SAM的提示token及其對(duì)應(yīng)的輸出MLP層)、HQ-SAM和Stable-SAM在HQ數(shù)據(jù)集上的對(duì)比。這里也推薦工坊推出的新課程《如何將深度學(xué)習(xí)模型部署到實(shí)際工程中?(分類(lèi)+檢測(cè)+分割)》。

0a6b0bac-9d31-11ee-8b88-92fbcf53809c.jpg

MS COCO和SGinW數(shù)據(jù)集上的對(duì)比,Stable-SAM最優(yōu)。

0a775bd2-9d31-11ee-8b88-92fbcf53809c.jpg

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • dsp
    dsp
    +關(guān)注

    關(guān)注

    561

    文章

    8247

    瀏覽量

    366750
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1219

    瀏覽量

    43438
  • 圖像分割
    +關(guān)注

    關(guān)注

    4

    文章

    182

    瀏覽量

    18776
  • SAM
    SAM
    +關(guān)注

    關(guān)注

    0

    文章

    118

    瀏覽量

    34400

原文標(biāo)題:SAM終結(jié)者:穩(wěn)定分割一切!

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    一種帶驗(yàn)證的自適應(yīng)鏡頭分割算法

    :文中針對(duì)鏡頭分割在基于內(nèi)容的視頻檢索中的重要性,首先介紹了普通的鏡頭分割方法,進(jìn)而針對(duì)這些方法的不足,提出了一種帶檢測(cè)的自適應(yīng)鏡頭分割算法,該方法能夠檢測(cè)
    發(fā)表于 12-16 12:25 ?21次下載

    一種目標(biāo)飛機(jī)分割提取方法

    提出了一種目標(biāo)飛機(jī)分割提取方法,該方法采用改進(jìn)的使用金字塔式分割策略的以彩色高斯混合模型CMM(Gaussian Mixture Model)和迭代能量最小化為基礎(chǔ)的CJrabCut算
    發(fā)表于 11-10 15:46 ?7次下載
    <b class='flag-5'>一種</b>目標(biāo)飛機(jī)<b class='flag-5'>分割</b>提取方法

    一種新的彩色圖像分割算法

    本文提出一種新的結(jié)合分水嶺與種子區(qū)域生成、區(qū)域合并的彩色圖像分割算法。首先將RGB顏色空間轉(zhuǎn)換成HSI間,應(yīng)用分水嶺算法對(duì)圖像進(jìn)行初始化分割,形成過(guò)分割效果。接著基于分水嶺算法得到的
    發(fā)表于 12-14 14:41 ?1次下載
    <b class='flag-5'>一種</b>新的彩色圖像<b class='flag-5'>分割</b>算法

    一種牙齒半自動(dòng)精確分割算法

    兩側(cè)的特征點(diǎn)構(gòu)建局部凹陷感知調(diào)和場(chǎng)矩陣,計(jì)算模型局部區(qū)域的標(biāo)量場(chǎng);其次在局部網(wǎng)格上得系列等值線利用一種投票機(jī)制選取最佳等值線作為牙齒分割線;最后利用
    發(fā)表于 04-29 15:39 ?3次下載
    <b class='flag-5'>一種</b>牙齒半自動(dòng)精確<b class='flag-5'>分割</b>算法

    一種高精度的肝臟圖像自動(dòng)分割算法

    在利用卷積神經(jīng)網(wǎng)絡(luò)分割肝臟邊界較模糊的影像數(shù)據(jù)時(shí)容易丟失位置信息,導(dǎo)致分割精度較低。針對(duì)該問(wèn)題,提出一種基于分水嶺修正與U-Net模型相結(jié)合的肝臟圖像自動(dòng)
    發(fā)表于 05-27 15:17 ?2次下載

    SAM-Adapter:首次讓SAM在下游任務(wù)適應(yīng)調(diào)優(yōu)!

    在這些基礎(chǔ)模型中,Segment Anything Model(SAM)作為個(gè)在大型視覺(jué)語(yǔ)料庫(kù)上訓(xùn)練的通用圖像分割模型取得了顯著的突破。事
    的頭像 發(fā)表于 04-20 10:13 ?2425次閱讀

    SAM分割模型是什么?

    SAM類(lèi)處理圖像分割任務(wù)的通用模型。與以往只能處理某種特定類(lèi)型圖片的圖像分割模型不同,
    的頭像 發(fā)表于 05-20 09:30 ?3746次閱讀

    近期分割模型發(fā)展情況

    SAM(Segment Anything Model)Meta 的 FAIR 實(shí)驗(yàn)室發(fā)布的一種最先進(jìn)的圖像分割模型,該模型將自然語(yǔ)言處理領(lǐng)域
    的頭像 發(fā)表于 05-22 16:26 ?2045次閱讀
    近期<b class='flag-5'>分割</b>大<b class='flag-5'>模型</b>發(fā)展情況

    基于一種移動(dòng)端高性能 Stable Diffusion 模型

    ? Stable Diffusion (SD)是當(dāng)前最熱門(mén)的文本到圖像(text to image)生成擴(kuò)散模型。盡管其強(qiáng)大的圖像生成能力令人震撼,個(gè)明顯的不足是需要的計(jì)算資源巨大,推理速度很慢
    的頭像 發(fā)表于 06-12 10:14 ?1974次閱讀
    基于<b class='flag-5'>一種</b>移動(dòng)端高性能 <b class='flag-5'>Stable</b> Diffusion <b class='flag-5'>模型</b>

    YOLOv8最新版本支持SAM分割

    分割任何模型 (Segment Anything Model - SAM) 是一種突破性的圖像分割模型
    的頭像 發(fā)表于 06-18 11:42 ?2599次閱讀
    YOLOv8最新版本支持<b class='flag-5'>SAM</b><b class='flag-5'>分割</b><b class='flag-5'>一</b>切

    基于SAM設(shè)計(jì)的自動(dòng)化遙感圖像實(shí)例分割方法

    RSPrompter的目標(biāo)是學(xué)習(xí)如何為SAM生成prompt輸入,使其能夠自動(dòng)獲取語(yǔ)義實(shí)例級(jí)掩碼。相比之下,原始的SAM需要額外手動(dòng)制作prompt,并且是一種類(lèi)別無(wú)關(guān)的分割方法。
    發(fā)表于 07-04 10:45 ?2392次閱讀
    基于<b class='flag-5'>SAM</b>設(shè)計(jì)的自動(dòng)化遙感圖像實(shí)例<b class='flag-5'>分割</b>方法

    介紹一種自動(dòng)駕駛汽車(chē)中可行駛區(qū)域和車(chē)道分割的高效輕量級(jí)模型

    本文介紹了TwinLiteNet:一種自動(dòng)駕駛汽車(chē)中可行駛區(qū)域和車(chē)道分割的高效輕量級(jí)模型。語(yǔ)義分割是自動(dòng)駕駛中理解周?chē)h(huán)境的項(xiàng)常見(jiàn)任務(wù)。
    發(fā)表于 08-03 14:20 ?2182次閱讀
    介紹<b class='flag-5'>一種</b>自動(dòng)駕駛汽車(chē)中可行駛區(qū)域和車(chē)道<b class='flag-5'>分割</b>的高效輕量級(jí)<b class='flag-5'>模型</b>

    ICCV 2023 | 超越SAM!EntitySeg:更少的數(shù)據(jù),更高的分割質(zhì)量

    ,需要在不同的圖像領(lǐng)域、新的物體類(lèi)別以及各種圖像分辨率和質(zhì)量下都能夠保持魯棒性。為了解決這個(gè)問(wèn)題,早在 SAM[6] 模型年之前,一種不考慮類(lèi)別的實(shí)體
    的頭像 發(fā)表于 10-02 10:40 ?1638次閱讀
    ICCV 2023 | 超越<b class='flag-5'>SAM</b>!EntitySeg:更少的數(shù)據(jù),更高的<b class='flag-5'>分割</b>質(zhì)量

    圖像分割與語(yǔ)義分割中的CNN模型綜述

    圖像分割與語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語(yǔ)義含義的區(qū)域或?qū)ο?。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像
    的頭像 發(fā)表于 07-09 11:51 ?3066次閱讀

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的個(gè)分割切的提示型模型,其在1100萬(wàn)張圖像上訓(xùn)練了超過(guò)10億個(gè)掩碼,實(shí)現(xiàn)了強(qiáng)大的零樣本泛化,突破了
    的頭像 發(fā)表于 01-12 16:17 ?313次閱讀
    <b class='flag-5'>SAM</b>(通用圖像<b class='flag-5'>分割</b>基礎(chǔ)<b class='flag-5'>模型</b>)丨基于BM1684X<b class='flag-5'>模型</b>部署指南