chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種通過(guò)引入硬注意力機(jī)制來(lái)引導(dǎo)學(xué)習(xí)視覺回答任務(wù)的研究

電子工程師 ? 來(lái)源:未知 ? 作者:李倩 ? 2018-10-04 09:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】軟注意力機(jī)制已在計(jì)算機(jī)視覺領(lǐng)域取得了廣泛的應(yīng)用和成功。但是我們發(fā)現(xiàn)硬注意力機(jī)制在計(jì)算機(jī)視覺任務(wù)中的研究還相對(duì)空白。而硬注意力機(jī)制能夠從輸入信息中選擇重要的特征,因此它被視為是一種比軟注意力機(jī)制更高效的方法。本次,將為大家介紹一種通過(guò)引入硬注意力機(jī)制來(lái)引導(dǎo)學(xué)習(xí)視覺回答任務(wù)的研究。此外結(jié)合L2 正則化篩選特征向量,可以高效地促進(jìn)篩選的過(guò)程并取得更好的整體表現(xiàn),而無(wú)需專門的學(xué)習(xí)過(guò)程。

摘要

生物感知中的注意機(jī)制主要是用于為復(fù)雜處理過(guò)程選擇感知信息子集,以對(duì)所有感官輸入執(zhí)行禁止操作。軟注意力機(jī)制 (soft attention mechanism) 通過(guò)選擇性地忽略部分信息來(lái)對(duì)其余信息進(jìn)行重加權(quán)聚合計(jì)算,已在計(jì)算機(jī)視覺領(lǐng)域取得了廣泛的應(yīng)用和成功。然而,我們對(duì)于硬注意力機(jī)制 (hard attention mechanism) 的探索卻相對(duì)較少,在這里,我們引入一種新的硬注意力方法,它能夠在最近發(fā)布的一些視覺問(wèn)答數(shù)據(jù)庫(kù)中取得有競(jìng)爭(zhēng)力的表現(xiàn),甚至在一些數(shù)據(jù)集中的性能超過(guò)了軟注意力機(jī)制。雖然硬注意力機(jī)制通常被認(rèn)為是一種不可微分的方法,我們發(fā)現(xiàn)特征量級(jí)與語(yǔ)義相關(guān)性是相關(guān)的,并能為我們提供有用的信號(hào)來(lái)篩選注意力機(jī)制選擇標(biāo)準(zhǔn)。由于硬注意力機(jī)制能夠從輸入信息中選擇重要的特征,因此它被視為是一種比軟注意力機(jī)制更高效的方法,特別地對(duì)于最近研究中使用非局部逐對(duì)操作 (non-local pairwise) 而言,其計(jì)算和內(nèi)存成本的消耗是巨大的。

簡(jiǎn)介

視覺注意力有助于促進(jìn)人類在復(fù)雜視覺推理多方面的能力。例如,對(duì)于需要在人群中識(shí)別出狗的任務(wù),視覺系統(tǒng)能夠自適應(yīng)地分配更多的計(jì)算處理資源,對(duì)狗及其潛在的目標(biāo)或場(chǎng)景進(jìn)行視覺信息處理。當(dāng)觀察者正觀察場(chǎng)景中的其他目標(biāo),而未發(fā)覺到一些引人注目的實(shí)體時(shí),這種感知效果將變得非常顯著。盡管注意力機(jī)制并不是計(jì)算機(jī)視覺領(lǐng)域中的一項(xiàng)變革性的技術(shù),但由于許多計(jì)算機(jī)視覺任務(wù),如檢測(cè),分割和分類,并沒(méi)有涉及復(fù)雜的視覺推理過(guò)程,因此這種注意力機(jī)制對(duì)計(jì)算機(jī)視覺任務(wù)而言還是有幫助的。

視覺問(wèn)答任務(wù)是一項(xiàng)需要復(fù)雜推理過(guò)程的視覺任務(wù),在近些年得到廣泛的關(guān)注并取得了長(zhǎng)足的進(jìn)步。成功的視覺問(wèn)答框架必須要能夠處理多個(gè)對(duì)象及其之間復(fù)雜的關(guān)系,同時(shí)還要能夠集成豐富的目標(biāo)背景知識(shí)。我們意識(shí)到計(jì)算機(jī)視覺中的軟注意力機(jī)制主要是通過(guò)加權(quán)聚合部分重要信息來(lái)提高視覺處理的準(zhǔn)確性,但對(duì)于計(jì)算機(jī)視覺中的硬注意力機(jī)制的研究相對(duì)空白。

在這里,我們探索一種簡(jiǎn)單的硬注意力機(jī)制,來(lái)引導(dǎo)卷積神經(jīng)網(wǎng)絡(luò)的特征表征:特征學(xué)習(xí)通常需要為硬注意力的選擇提供一種簡(jiǎn)單的訪問(wèn)信號(hào)。特別地,用 L2 正則化篩選這些特征向量已被驗(yàn)證是一種有助于硬注意力機(jī)制的方法,它能夠高效地促進(jìn)篩選的過(guò)程并取得更好的整體表現(xiàn),而無(wú)需專門的學(xué)習(xí)過(guò)程。下圖1展示了這種方法的結(jié)果。注意力信號(hào)直接源自于標(biāo)準(zhǔn)的監(jiān)督任務(wù)損失函數(shù),而無(wú)需任何明確的監(jiān)督信號(hào)來(lái)激活正則化,也無(wú)需其他潛在的措施。

圖1 基于給定的自然圖像和文本問(wèn)題輸入,我們的視覺問(wèn)答架構(gòu)得到的輸出結(jié)果圖。這里,我們使用了一種硬注意機(jī)制,只對(duì)那些重要的視覺特征進(jìn)行選擇并處理。基于我們模型結(jié)構(gòu),正則化后視覺特征的相關(guān)性以及那些具有高度相關(guān)性并包含重要語(yǔ)義內(nèi)容的特征向量的前提,生成我們的注意力圖像。

此外,通過(guò)對(duì)特征向量的 L2 正則化處理來(lái)選擇重要性特征,我們的視覺問(wèn)答框架進(jìn)一步采用硬注意力機(jī)制進(jìn)行增強(qiáng)。我們將最初的版本成為硬注意力網(wǎng)絡(luò) HAN (Hard Attention Network),用于通過(guò)頂層正則化項(xiàng)來(lái)選擇固定數(shù)量的特征向量。第二個(gè)版本我們稱之為自適應(yīng)的硬注意力網(wǎng)絡(luò) AdaHAN (Hard Hard Attention Network),這是基于輸入來(lái)決定特征向量的可變數(shù)量的一種網(wǎng)絡(luò)結(jié)構(gòu)。我們?cè)诖罅康臄?shù)據(jù)集上評(píng)估我們的方法,實(shí)驗(yàn)結(jié)果表明我們的算法能夠在多個(gè)視覺問(wèn)答數(shù)據(jù)及上實(shí)現(xiàn)與軟注意力機(jī)制相當(dāng)?shù)男阅?。此外,我們的方法還能產(chǎn)生可解釋的硬注意力掩模,其中所選的圖像特征區(qū)域通常包含一些相應(yīng)的重要語(yǔ)義信息,如一些連貫的對(duì)象。相比于非局部成對(duì)模型,我們的方法也能取得相當(dāng)出色的表現(xiàn)。

方法

下圖2展示了我們提出的用于學(xué)習(xí)從圖像和問(wèn)題映射到答案的模型結(jié)構(gòu)。我們用卷積神經(jīng)網(wǎng)絡(luò) (CNN) 對(duì)圖像進(jìn)行編碼(在這里采用的是預(yù)訓(xùn)練的 ResNet-101 模型,或是從頭開始訓(xùn)練小型的 CNN 模型),并用 LSTM 將問(wèn)題編碼為一個(gè)固定長(zhǎng)度的矢量表征。通過(guò)將答案復(fù)制到 CNN 模型中每個(gè)空間位置并將其與視覺特征相連接,我們計(jì)算得到組合表征。經(jīng)過(guò)幾層組合處理后,我們?cè)诳臻g位置上引入注意力機(jī)制,這與先前研究中引入軟注意力機(jī)制的過(guò)程是一致的。最后,我們將特征聚合,并使用池化和 (sum-pooling) 或關(guān)系模塊 (relational modules),通過(guò)計(jì)算答案類別的標(biāo)準(zhǔn)邏輯回歸損失來(lái)端到端地訓(xùn)練整個(gè)網(wǎng)絡(luò)。

圖2 我們?cè)谀P椭幸胗沧⒁饬C(jī)制來(lái)代替軟注意力機(jī)制,并遵循標(biāo)準(zhǔn)視覺問(wèn)答框架的其他結(jié)構(gòu)。圖像和問(wèn)題都被編碼成各自的矢量表征。隨后,空間視覺特征的編碼被進(jìn)一步表示,而問(wèn)題嵌入相應(yīng)地通過(guò)傳播和連接 (或添加) 以形成多模式輸入表征。我們的注意力機(jī)制能夠有選擇性地選擇用于下一次聚合和處理多模式向量的應(yīng)答模塊。

▌1.硬注意力機(jī)制

我們引入了一種新的硬注意力機(jī)制,它在空間位置上產(chǎn)生二進(jìn)制掩碼,并確定用于下一步處理的特征選擇。我們將我們的方法稱為硬注意力網(wǎng)絡(luò) (HAN),其核心在于對(duì)每個(gè)空間位置使用 L2 正則化激活以生成該位置相關(guān)性。L2 范數(shù)和相關(guān)性之間的關(guān)系是 CNN 訓(xùn)練特征的一種新屬性,這不需要額外的約束或目標(biāo)。我們的結(jié)構(gòu)也只是對(duì)這種現(xiàn)象進(jìn)行引導(dǎo)而沒(méi)有明確地訓(xùn)練該網(wǎng)絡(luò)。

因此,與軟注意力機(jī)制相比,我們的方法不需要額外的參數(shù)學(xué)習(xí)。HAN 只需要一個(gè)額外的、可解釋的超參數(shù):即輸入單元所使用的稀疏,也是用于權(quán)衡訓(xùn)練速度和準(zhǔn)確性的參數(shù)。

▌2.特征聚合

池化和在引入注意力機(jī)制后,減少特征矢量的一種簡(jiǎn)單方法是將其進(jìn)行池化和操作以生成長(zhǎng)度固定的矢量。在注意力權(quán)重向量為 w 的軟注意力條件下,我們很容易計(jì)算得到向量的池化和。在硬注意力條件下,基于選擇的特征,我們也可以由此類比地計(jì)算。

非局部逐對(duì)操作 為進(jìn)一步改善池化和的性能,我們探索一種與通過(guò)非局部成對(duì)計(jì)算來(lái)演繹推理相類似的方法。其數(shù)學(xué)描述如下:

在這里,softmax 函數(shù)作用于所有的 i, j 位置。我們的方法能夠成對(duì)地計(jì)算非局部嵌入之間的關(guān)系,獨(dú)立于空間或時(shí)間的近似度。硬注意力機(jī)制能夠幫助我們減少所要考慮的設(shè)置,因此我們的目標(biāo)在于測(cè)試通過(guò)硬注意力選擇的特征是否能與此操作相兼容。

實(shí)驗(yàn)

為了展示硬注意力機(jī)制對(duì)視覺問(wèn)答任務(wù)的重要性,我們首先在 VQA-CP v2 數(shù)據(jù)集上,將 HAN 與現(xiàn)有的軟注意力網(wǎng)絡(luò) SAN 進(jìn)行比較分析,并通過(guò)卷積映射直接控制空間單元出現(xiàn)的數(shù)量來(lái)探索不同程度的硬注意力的影響。隨后,我們?cè)u(píng)估 AdaHAN 模型并研究網(wǎng)絡(luò)深度和預(yù)訓(xùn)練策略的影響,這是一種能夠自適應(yīng)地選擇單元出現(xiàn)數(shù)量的一種模型。最后,我們展示了定性的實(shí)驗(yàn)結(jié)果,并提供了在 CLEVR 數(shù)據(jù)集上的結(jié)果,以表明我們方法的通用性。

▌1.實(shí)驗(yàn)細(xì)節(jié)

我們的模型都使用相同的 LSTM 模型用于問(wèn)題嵌入,其大小為512,并采用在ImageNet 數(shù)據(jù)集上預(yù)訓(xùn)練的 ResNet-101 模型的最后一個(gè)卷積層 (能夠產(chǎn)生10×10空間表征,每個(gè)具有2048個(gè)維度),用于圖像嵌入。此外,我們還使用3層大小分別為1024、2048、1000的 MLP 結(jié)構(gòu),作為一個(gè)分類模型。我們使用 ADAM 進(jìn)行優(yōu)化,采用分布式設(shè)置,以128每批次大小來(lái)計(jì)算梯度值,并根據(jù)經(jīng)驗(yàn)在Visual QA數(shù)據(jù)集上選擇默認(rèn)的超參數(shù)。

▌2.數(shù)據(jù)集

VQA-CP v2 數(shù)據(jù)集的結(jié)果:VQA-CP v2 數(shù)據(jù)集包含 121K (98K) 張圖像數(shù)據(jù),438K (220K) 條問(wèn)題數(shù)據(jù)以及 4.4M (2.2M) 答案數(shù)據(jù)。該數(shù)據(jù)集提供了標(biāo)準(zhǔn)的訓(xùn)練測(cè)試過(guò)程,并將問(wèn)題分解為不同的類型:如答案為肯定/否定類型,答案是數(shù)字類型,以及其他類型等,這有助于我們用每種問(wèn)題類型準(zhǔn)確性來(lái)評(píng)估網(wǎng)絡(luò)架構(gòu)的性能。

CLEVR:CLEVR 是一個(gè)合成數(shù)據(jù)庫(kù),由 100K 張 3D 渲染圖像組成,如球體、圓柱體等。雖然視覺任務(wù)相對(duì)簡(jiǎn)單,但解決這個(gè)數(shù)據(jù)集也需要推理目標(biāo)間的復(fù)雜關(guān)系。

▌3.結(jié)果分析

硬注意力機(jī)制的影響

我們考慮最基礎(chǔ)的硬注意力結(jié)構(gòu):采用硬注意力機(jī)制,并對(duì)每個(gè)出現(xiàn)單元進(jìn)行池化和操作,最后連接一個(gè)小型的 MLP 結(jié)構(gòu)。下表1展示了我們的實(shí)驗(yàn)結(jié)果??梢钥吹?,引入硬注意力機(jī)制不僅不會(huì)丟失特征的重要信息,還能在較少出現(xiàn)單元的情況下,取得相當(dāng)?shù)男阅芙Y(jié)果,這表明了這種機(jī)制是圖像的重要部分。此外,在表1下面我們還與軟注意力機(jī)制進(jìn)行了對(duì)比,可以發(fā)現(xiàn)軟注意力機(jī)制的表現(xiàn)并不優(yōu)于我們的方法。

表1 不同出現(xiàn)單元數(shù)量和聚合操作的性能比較。我們考慮簡(jiǎn)單的和操作和非局部成對(duì)計(jì)算作為特征聚合的工具。

自適應(yīng)硬注意力機(jī)制的結(jié)果

下表2展示了自適應(yīng)硬注意力機(jī)制的實(shí)驗(yàn)結(jié)果。我們可以看到,自適應(yīng)機(jī)制使用非常少的單元:進(jìn)行池化和計(jì)算時(shí),只使用100個(gè)單元中的25.66個(gè),而進(jìn)行非局部成對(duì)聚合時(shí),則只有32.63個(gè)單元被使用。這表明即便非常簡(jiǎn)單的自適應(yīng)方法,也能給圖像和問(wèn)題的解決可以帶來(lái)計(jì)算和性能方面的提升,這也說(shuō)明更復(fù)雜的方法將是未來(lái)工作的重要方向。

表2 不同自適應(yīng)硬注意力技術(shù)、單元出現(xiàn)的平均數(shù)量和聚合操作的性能對(duì)比。我們考慮一種簡(jiǎn)單的和操作和非局部成對(duì)聚合操作。

此外,下表3展示了移除兩層結(jié)構(gòu)后自適應(yīng)硬注意力機(jī)制的性能表現(xiàn)??梢钥吹?,移除這些層后,模型的表現(xiàn)下降了約1%,這表明了決定單元出現(xiàn)與否需要不同的信息,這不同于 ResNet 模型的分類微調(diào)設(shè)計(jì),同時(shí)也說(shuō)明了深度對(duì)于自適應(yīng)機(jī)制的影響。

表3 在 VQA-CP v2 數(shù)據(jù)集上不同單元出現(xiàn)數(shù)量的性能比較。其中第二列表示輸入單元出現(xiàn)的百分比,而第三列代表 MLP 結(jié)構(gòu)的層數(shù)。

定性結(jié)果及 CLEVR 數(shù)據(jù)集結(jié)果

下圖3、圖4展示了我們方法的定性實(shí)驗(yàn)結(jié)果。圖3展示了采用不同硬注意力機(jī)制(HAN、AdaHAN)、不同聚合操作 (和操作、逐對(duì)操作) 的實(shí)驗(yàn)結(jié)果。而圖4展示了采用最佳的模型設(shè)置:自適應(yīng)硬注意力機(jī)制加上非局部逐對(duì)聚合操作 (AdaHAN+pairwise),在 VQA-CP 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。

圖3 不同硬注意力機(jī)制和不同聚合方法變體的定性結(jié)果

圖4 AdaHAN+pairwise 的定性結(jié)果

此外,我們還進(jìn)一步在 CLEVR 數(shù)據(jù)集上驗(yàn)證我們方法的通用性,其他的設(shè)置與 VQA-CP 數(shù)據(jù)集上相類似。下圖5展示了兩種方法的實(shí)驗(yàn)結(jié)果。

圖5 在 CLEVR 數(shù)據(jù)集上相同超參數(shù)設(shè)置,不同方法的驗(yàn)證精度結(jié)果。(a) HAN+RN (0.25的輸入單元) 和 標(biāo)準(zhǔn)的 RN 結(jié)構(gòu) (全輸入單元),訓(xùn)練12個(gè)小時(shí)來(lái)測(cè)量方法的有效性。(b) 我們的硬注意力方法。

結(jié)論

我們已經(jīng)引入了一種新的硬注意力方法用于計(jì)算機(jī)視覺任務(wù),它能夠選擇用于下一步處理的特征向量子集。我們探索了兩種模型:一個(gè)選擇具有預(yù)定義向量數(shù)量的 HAN 模型,另一個(gè)自適應(yīng)地選擇子集大小作為輸入的 AdaHAN。通過(guò)特征向量數(shù)量與相關(guān)信息的相關(guān)性,我們的注意力機(jī)制能夠解決文獻(xiàn)中現(xiàn)有方法存在的梯度問(wèn)題。經(jīng)過(guò)大量的實(shí)驗(yàn)評(píng)估,結(jié)果表明了在具有挑戰(zhàn)性的 Visual QA 數(shù)據(jù)集上,我們的 HAN 和 AdaHAN 模型能夠取得有競(jìng)爭(zhēng)力的性能表現(xiàn),并在某些時(shí)候取得相當(dāng)甚至超過(guò)軟注意力機(jī)制的表現(xiàn),同時(shí)還能提供額外的計(jì)算效率優(yōu)勢(shì)。最后,我們還提供了可解釋性表示,即對(duì)所選特征的空間位置中相應(yīng)貢獻(xiàn)最大、最顯著的部分進(jìn)行了可視化。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:如何通過(guò)引入硬注意力機(jī)制來(lái)學(xué)習(xí)視覺問(wèn)答任務(wù)?

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    DeepMind為視覺問(wèn)題回答提出了一種新的注意力機(jī)制

    然而,在基于梯度的學(xué)習(xí)框架(如深度學(xué)習(xí))中存在個(gè)關(guān)鍵的缺點(diǎn):因?yàn)檫x擇要處理的信息的過(guò)程是離散化的,因此也就是不可微分的,所以梯度不能反向傳播到選擇機(jī)制
    的頭像 發(fā)表于 08-10 08:44 ?6680次閱讀

    深度分析NLP中的注意力機(jī)制

    注意力機(jī)制越發(fā)頻繁的出現(xiàn)在文獻(xiàn)中,因此對(duì)注意力機(jī)制學(xué)習(xí)、掌握與應(yīng)用顯得十分重要。本文便對(duì)注意力
    的頭像 發(fā)表于 02-17 09:18 ?4578次閱讀

    注意力機(jī)制的誕生、方法及幾種常見模型

    簡(jiǎn)而言之,深度學(xué)習(xí)中的注意力機(jī)制可以被廣義地定義為個(gè)描述重要性的權(quán)重向量:通過(guò)這個(gè)權(quán)重向量為了預(yù)測(cè)或者推斷
    的頭像 發(fā)表于 03-12 09:49 ?4.4w次閱讀

    注意力機(jī)制或?qū)⑹俏磥?lái)機(jī)器學(xué)習(xí)的核心要素

    目前注意力機(jī)制已是深度學(xué)習(xí)里的大殺器,無(wú)論是圖像處理、語(yǔ)音識(shí)別還是自然語(yǔ)言處理的各種不同類型的任務(wù)中,都很容易遇到注意力模型的身影。
    發(fā)表于 05-07 09:37 ?1572次閱讀

    基于注意力機(jī)制的深度學(xué)習(xí)模型AT-DPCNN

    情感分析是自然語(yǔ)言處理領(lǐng)域的個(gè)重要分支,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在文本情感分析方面取得了較好的效果,但其未充分提取文本信息中的關(guān)鍵情感信息。為此,建立一種基于注意力機(jī)制的深度
    發(fā)表于 03-17 09:53 ?12次下載
    基于<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>的深度<b class='flag-5'>學(xué)習(xí)</b>模型AT-DPCNN

    一種注意力增強(qiáng)的自然語(yǔ)言推理模型aESIM

    在自然語(yǔ)言處理任務(wù)中使用注意力機(jī)制可準(zhǔn)確衡量單詞重要度。為此,提出一種注意力增強(qiáng)的自然語(yǔ)言推理模型aESM。將詞
    發(fā)表于 03-25 11:34 ?9次下載
    <b class='flag-5'>一種</b><b class='flag-5'>注意力</b>增強(qiáng)的自然語(yǔ)言推理模型aESIM

    基于層次注意力機(jī)制的多模態(tài)圍堵情感識(shí)別模型

    在連續(xù)維度情感識(shí)別任務(wù)中,每個(gè)模態(tài)內(nèi)部凸顯情感表達(dá)的部分并不相同,不同模態(tài)對(duì)于情感狀態(tài)的影響程度也有差別。為此,通過(guò)學(xué)習(xí)各個(gè)模態(tài)特征并采用合理的融合方式,提出一種基于層次注意力
    發(fā)表于 04-01 11:20 ?9次下載
    基于層次<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>的多模態(tài)圍堵情感識(shí)別模型

    基于多層CNN和注意力機(jī)制的文本摘要模型

    。然而現(xiàn)有的模型在解碼時(shí)僅利用編碼器最后層信息,而忽略編碼器其余層的特征。鑒于此,提出一種基于多層循環(huán)神經(jīng)網(wǎng)絡(luò)和層級(jí)交互注意力機(jī)制的摘要生成模型,
    發(fā)表于 04-07 11:35 ?2次下載
    基于多層CNN和<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>的文本摘要模型

    基于層次注意力機(jī)制的多任務(wù)疾病進(jìn)展模型

    臨床特征,對(duì)阿爾茨海默癥進(jìn)行自動(dòng)診斷,并預(yù)測(cè)潛在的預(yù)后風(fēng)險(xiǎn),進(jìn)而提岀了饣基于層次注意力機(jī)制的多任務(wù)疾病進(jìn)展模型。該模型將疾病自動(dòng)診斷任務(wù)
    發(fā)表于 05-07 14:47 ?7次下載

    結(jié)合注意力機(jī)制的跨域服裝檢索方法

    針對(duì)跨域服裝檢索中服裝商品圖像拍攝嚴(yán)格約束光照、背景等條件,而用戶圖像源自復(fù)雜多變的日常生活場(chǎng)景,難以避免背景干擾以及視角、姿態(tài)引起的服裝形變等問(wèn)題。提出一種結(jié)合注意力機(jī)制的跨域服裝檢索方法。利用
    發(fā)表于 05-12 14:19 ?2次下載

    基于注意力機(jī)制等的社交網(wǎng)絡(luò)熱度預(yù)測(cè)模型

    基于注意力機(jī)制等的社交網(wǎng)絡(luò)熱度預(yù)測(cè)模型
    發(fā)表于 06-07 15:12 ?14次下載

    計(jì)算機(jī)視覺中的注意力機(jī)制

    計(jì)算機(jī)視覺中的注意力機(jī)制 卷積神經(jīng)網(wǎng)絡(luò)中常用的Attention 參考 注意力機(jī)制簡(jiǎn)介與分類 注意力
    發(fā)表于 05-22 09:46 ?1次下載
    計(jì)算機(jī)<b class='flag-5'>視覺</b>中的<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>

    一種新的深度注意力算法

    本文簡(jiǎn)介了一種新的深度注意力算法,即深度殘差收縮網(wǎng)絡(luò)(Deep Residual Shrinkage Network)。從功能上講,深度殘差收縮網(wǎng)絡(luò)是一種面向強(qiáng)噪聲或者高度冗余數(shù)據(jù)的特征學(xué)習(xí)
    發(fā)表于 05-24 16:28 ?0次下載
    <b class='flag-5'>一種</b>新的深度<b class='flag-5'>注意力</b>算法

    基于YOLOv5s基礎(chǔ)上實(shí)現(xiàn)五視覺注意力模塊的改進(jìn)

    基礎(chǔ)上實(shí)現(xiàn)五視覺注意力模塊的改進(jìn),然后訓(xùn)練相同的輪次,橫向比較模型的精度。 YOLOv5添加注意模塊魔改 ?視覺
    的頭像 發(fā)表于 06-02 14:52 ?2497次閱讀
    基于YOLOv5s基礎(chǔ)上實(shí)現(xiàn)五<b class='flag-5'>種</b><b class='flag-5'>視覺</b><b class='flag-5'>注意力</b>模塊的改進(jìn)

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機(jī)電系統(tǒng)中數(shù)據(jù)驅(qū)動(dòng)故障檢測(cè)模型的性能和可解釋性。引入一種混合因果發(fā)現(xiàn)算法來(lái)發(fā)現(xiàn)監(jiān)測(cè)變量之間的繼承因果關(guān)系。順序連接因果變量的因果路徑用作接收?qǐng)觯褂枚喑叨染矸e來(lái)提取特征。基于分層
    的頭像 發(fā)表于 11-12 09:52 ?1637次閱讀
    <b class='flag-5'>一種</b>基于因果路徑的層次圖卷積<b class='flag-5'>注意力</b>網(wǎng)絡(luò)