chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用Transformer和CNN 各自的優(yōu)勢(shì)以獲得更好的分割性能

jf_pmFSk4VX ? 來(lái)源:GiantPandaCV ? 作者:GiantPandaCV ? 2022-11-05 11:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概述

在這篇論文中,提出了一種新的醫(yī)學(xué)圖像分割混合架構(gòu):PHTrans,它在主要構(gòu)建塊中并行混合 Transformer 和 CNN,分別從全局和局部特征中生成層次表示并自適應(yīng)聚合它們,旨在充分利用 Transformer 和 CNN 各自的優(yōu)勢(shì)以獲得更好的分割性能。

具體來(lái)說(shuō),PHTrans 沿用 U 形設(shè)計(jì),在深層引入并行混合模塊,其中卷積塊和修改后的 3D Swin Transformer 塊分別學(xué)習(xí)局部特征和全局依賴關(guān)系,然后使用 sequence-to-volume 操作統(tǒng)一輸出維度以實(shí)現(xiàn)特征聚合,操作的具體細(xì)節(jié)在這篇閱讀筆記的后面詳細(xì)介紹。最后在 BCV 和 ACDC 數(shù)據(jù)集上驗(yàn)證了其有效性,并用 nnUNet 包預(yù)處理 BCV 和 ACDC 數(shù)據(jù)集。

為什么要并行

下圖的 (a)~(d) 是幾種流行的基于 Transformer 和 CNN 的混合架構(gòu),既將 Transformer 添加到以 CNN 為 backbone 的模型中,或替換部分組件。其中 (c) 與 (b) 的區(qū)別是通過(guò) Transformer 橋接從編碼器到解碼器的所有階段,而不僅僅是相鄰的階段,這就捕獲了多尺度全局依賴。(d) 表示將 Transformer 和 CNN 交織成一個(gè)混合模型,其中卷積編碼精確的空間信息,而自注意力機(jī)制捕獲全局上下文信息。

圖 (e) 表示二者的并行。在串行組合中,卷積和自注意力機(jī)制無(wú)法貫穿整個(gè)網(wǎng)絡(luò)架構(gòu),難以連續(xù)建模局部和全局表示,因此這篇論文里認(rèn)為并行可以充分發(fā)揮它們的潛力。

9e278bca-5c48-11ed-a3b6-dac502259ad0.png

PHTrans 架構(gòu) overview

首先,我們從總體上分析一下 PHTrans 架構(gòu),然后在下一部分看它的細(xì)節(jié)。如下圖 (b),其主要構(gòu)建塊由 CNN 和 Swin Transformer 組成,以同時(shí)聚合全局和局部表示。圖 (a) 依舊遵循的 U 形架構(gòu)設(shè)計(jì),在淺層只是普通的卷積塊,在深層引入了 sequence-to-volume 操作來(lái)實(shí)現(xiàn) Swin Transformer 和 CNN 在一個(gè)塊中的并行組合。

我們上一篇解析的 UNeXT 也是只在深層使用 TokMLP 的,看來(lái)淺層的卷積還是必要的。也就是說(shuō),與串行混合架構(gòu)相比,PHTrans 可以獨(dú)立并行構(gòu)建分層的局部和全局表示,并在每個(gè)階段融合它們。

進(jìn)一步解釋下為什么輸入的第一層也就是 U 型架構(gòu)的淺層沒(méi)有用 Trans&Conv Block?因?yàn)樽宰⒁饬C(jī)制的計(jì)算復(fù)雜度高,Transformer 無(wú)法直接接收以像素為標(biāo)記的輸入。在論文的實(shí)現(xiàn)中,使用了級(jí)聯(lián)卷積塊和下采樣操作來(lái)減小空間大小,逐步提取高分辨率的低級(jí)特征以獲得精細(xì)的空間信息。類似地,這些純卷積模塊也部署在解碼器的對(duì)應(yīng)層,并通過(guò)上采樣恢復(fù)原始維度。

9e4cd718-5c48-11ed-a3b6-dac502259ad0.png

我們仔細(xì)看下 PHTrans 的編碼器,對(duì)于 H×W×D 的輸入 volume(3D 醫(yī)學(xué)圖像),其中 H、W 和 D 分別表示高度、寬度和深度,首先使用幾個(gè)純卷積模塊得到的 volume,其中 N1 和 C 表示卷積塊和通道的數(shù)量。然后輸入到 Trans&Conv Block 重復(fù) N2 次。對(duì)于解碼器同樣基于純卷積模塊和并行混合模塊構(gòu)建,并通過(guò)跳躍連接和加法操作融合來(lái)自編碼器的語(yǔ)義信息。此外,在訓(xùn)練期間在解碼器的每個(gè)階段都使用深度監(jiān)督機(jī)制,產(chǎn)生總共 N1 + N2 個(gè)輸出,其中應(yīng)用了由交叉熵和 DICE 的聯(lián)合損失。

深度監(jiān)督(deep supervision)又稱為中繼監(jiān)督(intermediate supervision),其實(shí)就是網(wǎng)絡(luò)的中間部分新添加了額外的 Loss,跟多任務(wù)是有區(qū)別的,多任務(wù)有不同的 GT 計(jì)算不同的 Loss,而深度監(jiān)督的 GT 都是同一個(gè) GT,不同位置的 Loss 按系數(shù)求和。深度監(jiān)督的目的是為了淺層能夠得到更加充分的訓(xùn)練,避免梯度消失(有待研究)。在提供的 Github 代碼里,提到的超參數(shù)有 N1、N2、M1 和 M2,M1 和M2 是并行混合模塊中 Swin Transformer 塊和卷積塊的數(shù)量。

Trans&Conv block

Trans&Conv block 的設(shè)計(jì)是我們最感興趣的地方??s小比例的特征圖分別輸入 Swin Transformer (ST) 塊和卷積 (Conv) 塊,分別在 ST 塊的開(kāi)頭和結(jié)尾引入 Volume-to-Sequence (V2S) 和 Sequence-to-Volume (S2V) 操作來(lái)實(shí)現(xiàn) volume 和 sequence 的變換,使其與 Conv 塊產(chǎn)生的輸出兼容。具體來(lái)說(shuō),V2S 用于將整個(gè) 3D 圖像重塑為具有窗口大小的 3D patches 序列。S2V 是相反的操作。

如上一節(jié)的圖 (b) 所示,一個(gè) ST 塊由一個(gè)基于移位窗口的多頭自注意力 (MSA) 模塊組成,然后是一個(gè) 2 層 MLP。在每個(gè) MSA 模塊和每個(gè) MLP 之前應(yīng)用一個(gè) LayerNorm (LN) 層,在每個(gè)模塊之后應(yīng)用一個(gè)殘差連接。在 M1 個(gè)連續(xù)的 ST 塊中,W-MSA 和 SW-MSA 交替嵌入到 ST 塊中,W-MSA能夠降低計(jì)算復(fù)雜度,但是不重合的窗口之間缺乏信息交流,這樣其實(shí)就失去了 Transformer 利用 Self-Attention 從全局構(gòu)建關(guān)系的能力,于是用 SW-MSA 來(lái)跨窗口進(jìn)行信息交流(跨窗口連接),同時(shí)保持非重疊窗口的高效計(jì)算。

對(duì)于醫(yī)學(xué)圖像分割,需要將標(biāo)準(zhǔn) ST 塊修改為 3D 版本,該版本在局部 3D 窗口內(nèi)計(jì)算自注意力,這些窗口被安排為以非重疊方式均勻劃分體積。計(jì)算方法是下面這樣的:假設(shè) x ∈ H×W×S×C 是 ST 塊的輸入,首先將其 reshape 為 N×L×C,其中 N 和 L = Wh × Ww × Ws 分別表示 3D 窗口的數(shù)量和維度。每個(gè) head 中的 self-attention 計(jì)算如下:

9e6be52c-5c48-11ed-a3b6-dac502259ad0.png

Q, K, V ∈ L×d 是查詢、鍵和值矩陣,d 是查詢/鍵維度,B ∈ L×L 是相對(duì)位置偏差。B 的取值在論文和代碼里都可以找到,這里我們就不仔細(xì)探究了。(b) 中的卷積塊以 3 × 3 × 3 卷積層、GELU 非線性和實(shí)例歸一化層為單位重復(fù) M2 次。最后,通過(guò)加法運(yùn)算融合 ST 塊和 Conv 塊的輸出。編碼器中 Trans&Conv 塊的計(jì)算過(guò)程(抽象成并行)可以總結(jié)如下:

9e7bb790-5c48-11ed-a3b6-dac502259ad0.png

xi?1 是編碼器第 i?1 階段的下采樣結(jié)果。值得注意的是,在解碼器中,除了跳躍連接之外,還通過(guò)加法操作來(lái)補(bǔ)充來(lái)自編碼器的上下文信息(圖 (a) 中的圈 C 和 圈 +)。因此,解碼器中的 Trans&Conv 塊計(jì)算(抽象成并行)可以表示為:

9e8a4850-5c48-11ed-a3b6-dac502259ad0.png

實(shí)驗(yàn)

實(shí)驗(yàn)在 BCV 和 ACDC 數(shù)據(jù)集上,BCV 分割腹部 CT 多個(gè)目標(biāo),ACDC 是 MRI 心臟分割,標(biāo)記了左心室 (LV)、右心室 (RV) 和心肌 (MYO)。在 BCV 上和其他 SOTA 方法的比較如下表:

9f024b8e-5c48-11ed-a3b6-dac502259ad0.png

在 ACDC 上和其他 SOTA 方法的比較如 Table 2 所示,Table 3 中的參數(shù)量和 FLOPS 和其他方法比也沒(méi)有很夸張,參數(shù)量甚至和 nnU-Net 相近。

9f1e4f3c-5c48-11ed-a3b6-dac502259ad0.png

可視化分割結(jié)果如下圖,我們只定位藍(lán)色肝臟的分割效果,箭頭位置表明分割的效果 PHTrans 是更優(yōu)秀的。

9f380dd2-5c48-11ed-a3b6-dac502259ad0.png

總結(jié)

PHTrans 也許為更多下游醫(yī)學(xué)圖像任務(wù)開(kāi)發(fā)了新的可能性。在 PHTrans 中,都是普通的 Swin Transformer 和簡(jiǎn)單的 CNN 塊,這表明性能提升源于并行混合架構(gòu)設(shè)計(jì),而不是 Transformer 和 CNN 塊。此外,PHTrans 沒(méi)有經(jīng)過(guò)預(yù)訓(xùn)練,因?yàn)榈侥壳盀橹惯€沒(méi)有足夠大的通用 3D 醫(yī)學(xué)圖像數(shù)據(jù)集。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26202
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23429
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    156

    瀏覽量

    6937

原文標(biāo)題:PHTrans 并行聚合全局和局部表示來(lái)進(jìn)行醫(yī)學(xué)圖像分割

文章出處:【微信號(hào):GiantPandaCV,微信公眾號(hào):GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    手把手教你使用LabVIEW實(shí)現(xiàn)Mask R-CNN圖像實(shí)例分割(含源碼)

    使用LabVIEW實(shí)現(xiàn)Mask R-CNN圖像實(shí)例分割
    的頭像 發(fā)表于 03-21 13:39 ?3836次閱讀
    手把手教你使用LabVIEW實(shí)現(xiàn)Mask R-<b class='flag-5'>CNN</b>圖像實(shí)例<b class='flag-5'>分割</b>(含源碼)

    如何利用PyTorch API構(gòu)建CNN?

    重要組成部分稱為最大池層。這有助于我們減少功能部件的數(shù)量,即使功能銳化以使我們的CNN性能更好?! ?duì)于所有卷積層,我們都應(yīng)用RELU激活函數(shù)?! ≡趯⒕矸e層映射到輸出時(shí),我們需要使用線性層。因此
    發(fā)表于 07-16 18:13

    如何利用卷積神經(jīng)網(wǎng)絡(luò)去更好地控制巡線智能車呢

    巡線智能車控制中的CNN網(wǎng)絡(luò)有何應(yīng)用?嵌入式單片機(jī)中的神經(jīng)網(wǎng)絡(luò)該怎樣去使用?如何利用卷積神經(jīng)網(wǎng)絡(luò)去更好地控制巡線智能車呢?
    發(fā)表于 12-21 07:47

    基于MLP的快速醫(yī)學(xué)圖像分割網(wǎng)絡(luò)UNeXt相關(guān)資料分享

    主要關(guān)注的地方。最終,UNeXt 將參數(shù)數(shù)量減少了 72倍,計(jì)算復(fù)雜度降低了 68 倍,推理速度提高了 10 倍,同時(shí)還獲得更好分割性能,如下圖所示?! NeXt 架構(gòu)  UNe
    發(fā)表于 09-23 14:53

    介紹一種用于密集預(yù)測(cè)的mlp架構(gòu)CycleMLP

    ,CycleMLP的性能明顯優(yōu)于ResNet和PVT。與Swin Transformer相比,CycleMLP可以獲得與Swin Transformer相當(dāng)甚至
    發(fā)表于 02-09 16:28

    一種新的彩色圖像分割算法

    顏色空間的像素與其領(lǐng)域的顏色差異及相對(duì)歐式距離自動(dòng)選出一些區(qū)域作為種子區(qū)域進(jìn)行自動(dòng)種子生長(zhǎng)算法。為了克服過(guò)分割的不良效果,該方法充分利用了分水嶺算法和區(qū)域合并算法的各自優(yōu)勢(shì)。
    發(fā)表于 12-14 14:41 ?1次下載
    一種新的彩色圖像<b class='flag-5'>分割</b>算法

    局部聚類分析的FCN-CNN云圖分割方法

    空氣中的塵埃、污染物及氣溶膠粒子的存在嚴(yán)重影響了大氣預(yù)測(cè)的有效性,毫米波雷達(dá)云圖的有效分割成為了解決這一問(wèn)題的關(guān)鍵,本文提出了一種基于超像素分析的全卷積神經(jīng)網(wǎng)路FCN和深度卷積神經(jīng)網(wǎng)絡(luò)CNN
    發(fā)表于 12-15 16:44 ?0次下載

    如何在Vivado中應(yīng)用物理優(yōu)化獲得更好的設(shè)計(jì)性能

    物理優(yōu)化是Vivado實(shí)現(xiàn)流程中更快時(shí)序收斂的重要組成部分。 了解如何在Vivado中應(yīng)用此功能以交換運(yùn)行時(shí)獲得更好的設(shè)計(jì)性能。
    的頭像 發(fā)表于 11-23 06:06 ?4628次閱讀

    視覺(jué)新范式Transformer之ViT的成功

    ? 這是一篇來(lái)自谷歌大腦的paper。這篇paper的主要成果是用Transformer[1]取代CNN,并證明了CNN不是必需的,甚至在大規(guī)模數(shù)據(jù)集預(yù)訓(xùn)練的基礎(chǔ)上在一些benchmarks做到
    的頭像 發(fā)表于 02-24 09:31 ?7629次閱讀
    視覺(jué)新范式<b class='flag-5'>Transformer</b>之ViT的成功

    用于實(shí)例分割的Mask R-CNN框架

    是應(yīng)用于每個(gè) RoI 的小型 FCN,像素到像素的方式預(yù)測(cè)分割掩碼。鑒于 Faster R-CNN 框架,Mask R-CNN 易于實(shí)現(xiàn)和訓(xùn)練,這有助于廣泛的靈活架構(gòu)設(shè)計(jì)。此外,掩碼
    的頭像 發(fā)表于 04-13 10:40 ?3683次閱讀

    普通視覺(jué)Transformer(ViT)用于語(yǔ)義分割的能力

    本文探討了普通視覺(jué)Transformer(ViT)用于語(yǔ)義分割的能力,并提出了SegViT。以前基于ViT的分割網(wǎng)絡(luò)通常從ViT的輸出中學(xué)習(xí)像素級(jí)表示。不同的是,本文利用基本的組件注意
    的頭像 發(fā)表于 10-31 09:57 ?6386次閱讀

    基于 Transformer分割與檢測(cè)方法

    關(guān)于 ?Transformer-Based 的 Segmentation 的綜述,系統(tǒng)地回顧了近些年來(lái)基于 Transformer? 的分割與檢測(cè)模型,調(diào)研的最新模型
    的頭像 發(fā)表于 07-05 10:18 ?2110次閱讀
    基于 <b class='flag-5'>Transformer</b> 的<b class='flag-5'>分割</b>與檢測(cè)方法

    如何利用CNN實(shí)現(xiàn)圖像識(shí)別

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)領(lǐng)域中一種特別適用于圖像識(shí)別任務(wù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過(guò)模擬人類視覺(jué)系統(tǒng)的處理方式,利用卷積、池化等操作,自動(dòng)提取圖像中的特征,進(jìn)而實(shí)現(xiàn)高效的圖像識(shí)別。本文將從CNN的基本原理、構(gòu)建過(guò)程、訓(xùn)練策略以
    的頭像 發(fā)表于 07-03 16:16 ?3643次閱讀

    圖像分割與語(yǔ)義分割中的CNN模型綜述

    圖像分割與語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語(yǔ)義含義的區(qū)域或?qū)ο?。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像分割與語(yǔ)義
    的頭像 發(fā)表于 07-09 11:51 ?3062次閱讀

    利用TPS61299在智能手表應(yīng)用中獲得快速瞬態(tài)性能優(yōu)勢(shì)

    電子發(fā)燒友網(wǎng)站提供《利用TPS61299在智能手表應(yīng)用中獲得快速瞬態(tài)性能優(yōu)勢(shì).pdf》資料免費(fèi)下載
    發(fā)表于 09-03 11:44 ?0次下載
    <b class='flag-5'>利用</b>TPS61299在智能手表應(yīng)用中<b class='flag-5'>獲得</b>快速瞬態(tài)<b class='flag-5'>性能</b><b class='flag-5'>優(yōu)勢(shì)</b>