chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種新的分割模型Stable-SAM

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-12-29 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

0. 筆者個人體會

分割一切模型(SAM)這幾年在CV領(lǐng)域應(yīng)用很多,很多文章都在努力提高SAM的分割精度,但SAM分割的前提是高質(zhì)量的提示(點、框)。但是實踐中的SAM經(jīng)常遇到不準確的提示,尤其是眾包標注平臺,這種不準確的提示會導致分割錯誤。

這也就是Stable Segment Anything Model這篇文章想要解決的問題,提出了一種新的分割模型Stable-SAM,希望遇到錯誤提示時也能實現(xiàn)穩(wěn)定分割!

1. 效果展示

SAM、HQ-SAM、Stable-SAM在提供次優(yōu)提示時的性能比較,Stable-SAM明顯優(yōu)于其他算法。

0a281586-9d31-11ee-8b88-92fbcf53809c.jpg

SAM和Stable-SAM的預(yù)測Mask和圖像特征的權(quán)重對比,橙色圓圈表示注意力權(quán)重,半徑越大表示得分越高。(a) 當提供高質(zhì)量提示時,SAM分割結(jié)果很好。(b) 微小的提示修改會導致不穩(wěn)定的分割輸出,SAM錯誤分割了背景。(c) Stable-SAM通過將更多的特征采樣注意力轉(zhuǎn)移到目標對象上來準確地分割目標對象。

2. 具體原理是什么?

Stable-SAM的具體pipeline由三部分組成:

(a)是SAM的Mask解碼器中的可變形采樣插件(DSP)和可變形路由插件(DRP)。DSP采用小偏移網(wǎng)絡(luò)(b)來預(yù)測特征采樣偏移。隨后DSP在更新的采樣位置對可變形圖像特征進行重新采樣,并將它們饋送到SAM的標記到圖像注意力。DRP采用一個小型MLP網(wǎng)絡(luò)(c)來根據(jù)輸入提示質(zhì)量調(diào)節(jié)DSP激活的程度。注意,DSP自適應(yīng)地單獨調(diào)整圖像特征采樣位置,不會改變原始SAM模型。

0a573726-9d31-11ee-8b88-92fbcf53809c.jpg

3. 和其他SOTA方法對比如何?

在不同質(zhì)量的提示下,SAM、DT-SAM(微調(diào)SAM的Mask解碼器)、PT-SAM(微調(diào)SAM的提示token及其對應(yīng)的輸出MLP層)、HQ-SAM和Stable-SAM在HQ數(shù)據(jù)集上的對比。這里也推薦工坊推出的新課程《如何將深度學習模型部署到實際工程中?(分類+檢測+分割)》。

0a6b0bac-9d31-11ee-8b88-92fbcf53809c.jpg

MS COCO和SGinW數(shù)據(jù)集上的對比,Stable-SAM最優(yōu)。

0a775bd2-9d31-11ee-8b88-92fbcf53809c.jpg

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • dsp
    dsp
    +關(guān)注

    關(guān)注

    559

    文章

    8184

    瀏覽量

    362267
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1199

    瀏覽量

    42575
  • 圖像分割
    +關(guān)注

    關(guān)注

    4

    文章

    182

    瀏覽量

    18577
  • SAM
    SAM
    +關(guān)注

    關(guān)注

    0

    文章

    115

    瀏覽量

    34222

原文標題:SAM終結(jié)者:穩(wěn)定分割一切!

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    一種帶驗證的自適應(yīng)鏡頭分割算法

    :文中針對鏡頭分割在基于內(nèi)容的視頻檢索中的重要性,首先介紹了普通的鏡頭分割方法,進而針對這些方法的不足,提出了一種帶檢測的自適應(yīng)鏡頭分割算法,該方法能夠檢測
    發(fā)表于 12-16 12:25 ?21次下載

    一種目標飛機分割提取方法

    提出了一種目標飛機分割提取方法,該方法采用改進的使用金字塔式分割策略的以彩色高斯混合模型CMM(Gaussian Mixture Model)和迭代能量最小化為基礎(chǔ)的CJrabCut算
    發(fā)表于 11-10 15:46 ?7次下載
    <b class='flag-5'>一種</b>目標飛機<b class='flag-5'>分割</b>提取方法

    一種新的彩色圖像分割算法

    本文提出一種新的結(jié)合分水嶺與種子區(qū)域生成、區(qū)域合并的彩色圖像分割算法。首先將RGB顏色空間轉(zhuǎn)換成HSI間,應(yīng)用分水嶺算法對圖像進行初始化分割,形成過分割效果。接著基于分水嶺算法得到的
    發(fā)表于 12-14 14:41 ?1次下載
    <b class='flag-5'>一種</b>新的彩色圖像<b class='flag-5'>分割</b>算法

    一種牙齒半自動精確分割算法

    兩側(cè)的特征點構(gòu)建局部凹陷感知調(diào)和場矩陣,計算模型局部區(qū)域的標量場;其次在局部網(wǎng)格上得系列等值線利用一種投票機制選取最佳等值線作為牙齒分割線;最后利用
    發(fā)表于 04-29 15:39 ?3次下載
    <b class='flag-5'>一種</b>牙齒半自動精確<b class='flag-5'>分割</b>算法

    一種高精度的肝臟圖像自動分割算法

    在利用卷積神經(jīng)網(wǎng)絡(luò)分割肝臟邊界較模糊的影像數(shù)據(jù)時容易丟失位置信息,導致分割精度較低。針對該問題,提出一種基于分水嶺修正與U-Net模型相結(jié)合的肝臟圖像自動
    發(fā)表于 05-27 15:17 ?2次下載

    SAM-Adapter:首次讓SAM在下游任務(wù)適應(yīng)調(diào)優(yōu)!

    在這些基礎(chǔ)模型中,Segment Anything Model(SAM)作為個在大型視覺語料庫上訓練的通用圖像分割模型取得了顯著的突破。事
    的頭像 發(fā)表于 04-20 10:13 ?2183次閱讀

    SAM分割模型是什么?

    SAM類處理圖像分割任務(wù)的通用模型。與以往只能處理某種特定類型圖片的圖像分割模型不同,
    的頭像 發(fā)表于 05-20 09:30 ?3342次閱讀

    近期分割模型發(fā)展情況

    SAM(Segment Anything Model)Meta 的 FAIR 實驗室發(fā)布的一種最先進的圖像分割模型,該模型將自然語言處理領(lǐng)域
    的頭像 發(fā)表于 05-22 16:26 ?1473次閱讀
    近期<b class='flag-5'>分割</b>大<b class='flag-5'>模型</b>發(fā)展情況

    篇綜述!分割模型(SAM)的全面調(diào)研

    SAM個提示型模型,其在 1100 萬張圖像上訓練了超過 10 億個掩碼,實現(xiàn)了強大的零樣本泛化。許多研究人員認為「這是 CV 的 GPT-3 時刻,因為 SAM 已經(jīng)學會了物體
    的頭像 發(fā)表于 05-24 14:36 ?2123次閱讀
    第<b class='flag-5'>一</b>篇綜述!<b class='flag-5'>分割</b><b class='flag-5'>一</b>切<b class='flag-5'>模型</b>(<b class='flag-5'>SAM</b>)的全面調(diào)研

    基于一種移動端高性能 Stable Diffusion 模型

    ? Stable Diffusion (SD)是當前最熱門的文本到圖像(text to image)生成擴散模型。盡管其強大的圖像生成能力令人震撼,個明顯的不足是需要的計算資源巨大,推理速度很慢
    的頭像 發(fā)表于 06-12 10:14 ?1520次閱讀
    基于<b class='flag-5'>一種</b>移動端高性能 <b class='flag-5'>Stable</b> Diffusion <b class='flag-5'>模型</b>

    YOLOv8最新版本支持SAM分割

    分割任何模型 (Segment Anything Model - SAM) 是一種突破性的圖像分割模型
    的頭像 發(fā)表于 06-18 11:42 ?2270次閱讀
    YOLOv8最新版本支持<b class='flag-5'>SAM</b><b class='flag-5'>分割</b><b class='flag-5'>一</b>切

    基于SAM設(shè)計的自動化遙感圖像實例分割方法

    RSPrompter的目標是學習如何為SAM生成prompt輸入,使其能夠自動獲取語義實例級掩碼。相比之下,原始的SAM需要額外手動制作prompt,并且是一種類別無關(guān)的分割方法。
    發(fā)表于 07-04 10:45 ?1791次閱讀
    基于<b class='flag-5'>SAM</b>設(shè)計的自動化遙感圖像實例<b class='flag-5'>分割</b>方法

    介紹一種自動駕駛汽車中可行駛區(qū)域和車道分割的高效輕量級模型

    本文介紹了TwinLiteNet:一種自動駕駛汽車中可行駛區(qū)域和車道分割的高效輕量級模型。語義分割是自動駕駛中理解周圍環(huán)境的項常見任務(wù)。
    發(fā)表于 08-03 14:20 ?1953次閱讀
    介紹<b class='flag-5'>一種</b>自動駕駛汽車中可行駛區(qū)域和車道<b class='flag-5'>分割</b>的高效輕量級<b class='flag-5'>模型</b>

    ICCV 2023 | 超越SAM!EntitySeg:更少的數(shù)據(jù),更高的分割質(zhì)量

    ,需要在不同的圖像領(lǐng)域、新的物體類別以及各種圖像分辨率和質(zhì)量下都能夠保持魯棒性。為了解決這個問題,早在 SAM[6] 模型年之前,一種不考慮類別的實體
    的頭像 發(fā)表于 10-02 10:40 ?1346次閱讀
    ICCV 2023 | 超越<b class='flag-5'>SAM</b>!EntitySeg:更少的數(shù)據(jù),更高的<b class='flag-5'>分割</b>質(zhì)量

    圖像分割與語義分割中的CNN模型綜述

    圖像分割與語義分割是計算機視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學習的一種核心模型,在圖像
    的頭像 發(fā)表于 07-09 11:51 ?2508次閱讀