chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖深度學(xué)習(xí)與曾經(jīng)風(fēng)靡一時的流形學(xué)習(xí)有何關(guān)系?

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2020-10-30 17:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如今引領(lǐng)風(fēng)潮的圖深度學(xué)習(xí)與曾經(jīng)風(fēng)靡一時的流形學(xué)習(xí)有何關(guān)系?請看本文娓娓道來。

神經(jīng)網(wǎng)絡(luò)利用關(guān)系的歸納偏置獲取以圖的形式存在的數(shù)據(jù)。然而,在很多情況下,我們并沒有現(xiàn)成的可用的圖。

那么,在這種情況下,是否還仍然還可以應(yīng)用圖深度學(xué)習(xí)呢?在本文中,倫敦帝國理工學(xué)院和盧加諾大學(xué)的教授Michael Bronstein對近期關(guān)于隱圖學(xué)習(xí)的工作和以前的流形學(xué)習(xí)技術(shù)進(jìn)行了比較。

在過去的幾年里,人們對用于圖結(jié)構(gòu)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法的研究興趣大增。這類數(shù)據(jù)自然而然地出現(xiàn)在社會科學(xué)(例如,Twitter 或 Facebook 上的用戶關(guān)注圖)、化學(xué)(分子可以被建模為原子通過化學(xué)鍵相連的圖)、生物(不同生物分子之間的交互作用通常被建模為一個被稱為「相互作用組」的圖)等應(yīng)用場景下。

圖神經(jīng)網(wǎng)絡(luò)(GNN)是一類當(dāng)下非常流行的方法,它們通過共享參數(shù)的局部操作對圖進(jìn)行學(xué)習(xí),這些操作會在相鄰節(jié)點(diǎn)之間交換信息。然而,在某些場景下,我們并不能奢求擁有一個作為輸入的圖。這種情況在許多生物學(xué)問題中屢見不鮮,在最好的情況下,由于發(fā)現(xiàn)交互作用的實(shí)驗(yàn)開銷相當(dāng)大并且充滿噪聲,「蛋白質(zhì)-蛋白質(zhì)」交互網(wǎng)絡(luò)等圖往往也只有部分?jǐn)?shù)據(jù)被觀測到。

因此,我們對于根據(jù)數(shù)據(jù)推理出圖并且將圖神經(jīng)網(wǎng)絡(luò)應(yīng)用在該圖上十分感興趣,在本文中,我們將這一過程稱為「隱圖學(xué)習(xí)」(latent graph learning)。

隱圖可能是面向特定應(yīng)用的,并且針對下游任務(wù)進(jìn)行了優(yōu)化。此外,由于這樣的圖可能會傳達(dá)關(guān)于數(shù)據(jù)的重要理解并提供解釋某些結(jié)論的方式,有時它們可能甚至?xí)热蝿?wù)本身更加重要。我們可以將隱圖學(xué)習(xí)看做學(xué)習(xí)一個帶有空邊集的圖。

在這種情況下,輸入為一些高維特征空間中的點(diǎn)云。

與 PointNet 等針對集合的深度學(xué)習(xí)方法(它們將一些共享的、可學(xué)習(xí)的點(diǎn)層面函數(shù)應(yīng)用于每個節(jié)點(diǎn)上)不同,我們還試圖在點(diǎn)之間傳遞信息。這是通過在一個根據(jù)點(diǎn)特征本身構(gòu)建的圖上傳遞消息實(shí)現(xiàn)的。

本文介紹的第一種此類架構(gòu)為 MIT 的 Yue Wang 研發(fā)的「動態(tài)圖卷積網(wǎng)絡(luò)」(DGCNN,這篇論文在計算圖形學(xué)研究社區(qū)十分有名,并常常被用作點(diǎn)云方法的對比基線)。

受到計算圖形學(xué)領(lǐng)域中進(jìn)行 3D 點(diǎn)云分析的工作的啟發(fā),DGCNN 試圖將圖用作點(diǎn)云底層的局部平滑流形結(jié)構(gòu)的一種粗糙的表征。

Yue Wang 觀察到的一個關(guān)鍵結(jié)論是,在整個神經(jīng)網(wǎng)絡(luò)的處理過程中,該圖并不需要保持不變。而且事實(shí)上,顧名思義,「動態(tài)圖卷積網(wǎng)絡(luò)」可以、也應(yīng)該被動態(tài)地更新。圖 1 說明了 DGCNN 在計算圖形學(xué)中十分有用的原因:

圖 1:動態(tài)圖卷積網(wǎng)絡(luò)利用飛機(jī)圖像構(gòu)建了一個被用于特征傳播的 K 最近鄰圖。這種圖依賴于特定的任務(wù),會被每一層網(wǎng)絡(luò)更新。

圖中的不同顏色表明了點(diǎn)距離紅點(diǎn)的距離(黃色表示與紅點(diǎn)距離較近的點(diǎn))。

本圖說明在分割任務(wù)中,較深的層中的圖捕獲了語義關(guān)系(例如,一對翅膀、飛機(jī)引擎等)而不是幾何關(guān)系。

DGCNN 其中的一個不足之處在于,它使用了同一個空間構(gòu)建圖以及圖上的特征。如圖 2 所示,在慕尼黑工業(yè)大學(xué)的 Anees Kazi 與 Luca Cosmo 近期發(fā)表的工作中,作者提出了一種名為「可微圖模塊」(DGM)的新型架構(gòu),它通過將構(gòu)建圖和構(gòu)建特征的過程解耦對 DGCNN 進(jìn)行了擴(kuò)展:

圖 2:可微圖模塊(DGM)提出了一種構(gòu)建圖及其特征的機(jī)制,從而利用輸入數(shù)據(jù)在圖上進(jìn)行信息傳播。

在被用于醫(yī)學(xué)領(lǐng)域的問題(例如,根據(jù)腦成像數(shù)據(jù)預(yù)測疾?。r,DGM 表現(xiàn)出了非常優(yōu)異的性能。在這些任務(wù)中,我們擁有包括人口統(tǒng)計學(xué)特征(例如,年齡、性別等)、腦成像特征在內(nèi)的多個病人的電子病歷數(shù)據(jù),并試圖預(yù)測某個病人是否患有神經(jīng)系統(tǒng)疾病。

論文「Disease prediction using graph convolutional networks: application to autism spectrum disorder and Alzheimer’s disease 」使用在一個根據(jù)人口統(tǒng)計學(xué)特征手動構(gòu)建的「患者圖」上的信息傳播將 GNN 應(yīng)用于此類任務(wù)。

DGM 在學(xué)習(xí)圖的任務(wù)上具有一定優(yōu)勢,它可能傳達(dá)了對于某些特征如何在特定的診斷任務(wù)中互相依賴的理解。除此之外,DGM 還在點(diǎn)云分類任務(wù)中稍稍優(yōu)于 DGCNN。

DGCNN 和 DGM 在概念上與一類被稱為「流形學(xué)習(xí)」或「非線性降維」相似,這類方法在 2000 年代時是機(jī)器學(xué)習(xí)領(lǐng)域中非常流行的課題,并且至今仍然被用于數(shù)據(jù)可視化。

流形學(xué)習(xí)的基本假設(shè)是:數(shù)據(jù)有一種內(nèi)在的低維結(jié)構(gòu)。

如下圖所示,盡管我們可以在某個空間中使用數(shù)百個甚至數(shù)千個維度表征數(shù)據(jù),但數(shù)據(jù)的自由度實(shí)際上也許是十分有限的:

圖 3:盡管在這個數(shù)據(jù)集中的手的圖像是高維的(64*64=4,096 維),但是他們本質(zhì)上是低維的,而且可以通過僅僅兩個自由度來解釋:手腕的旋轉(zhuǎn)和手指的延伸情況。

流形學(xué)習(xí)算法可以捕獲數(shù)據(jù)集的這種低維的內(nèi)在結(jié)構(gòu),并且在歐氏空間中表征它。該圖取自論文「A Global Geometric Framework for Nonlinear Dimensionality Reduction」的補(bǔ)充材料。

流形學(xué)習(xí)旨在通過底層的「流形」(嚴(yán)格地說,這里指的并不是微分幾何意義上的術(shù)語「流形」,例如不同的點(diǎn)上的局部維度可能不同。

然而,使用這種比喻較為方便。)捕獲這些自由度,并且將數(shù)據(jù)的維度降到其本質(zhì)的維度上。

流形學(xué)習(xí)與 PCA 等線性降維方式的重要區(qū)別在于,由于數(shù)據(jù)的非歐結(jié)構(gòu),用線性投影的方式恢復(fù)出流形是不可能的:

圖 4:線性降維(左圖)vs 流形學(xué)習(xí)。Joshua Tenenbaum 創(chuàng)造的「Swiss roll」曲面及其 1D 展開形式在流形學(xué)習(xí)論文中經(jīng)常被用作示例。

各種流形學(xué)習(xí)算法的不同之處在于它們恢復(fù)「流形」的方式,但它們的大致框架相同。首先,它們會創(chuàng)建一種數(shù)據(jù)的表征,通常這是通過構(gòu)建一個捕獲了局部結(jié)構(gòu)的 k 最近鄰圖完成的。接著,它們會計算一種數(shù)據(jù)的低維表征(嵌入),并試圖保留原始數(shù)據(jù)的結(jié)構(gòu)。

而這一步正是大多數(shù)流形學(xué)習(xí)方法各不相同的地方。

例如,Isomap試圖保留圖的測地線距離;局部線性嵌入找到了一種鄰接點(diǎn)的局部表征;而拉普拉斯特征映射使用了圖拉普拉斯算子的特征函數(shù)作為低維嵌入。這種新的表征將原始的非歐結(jié)構(gòu)「展平」到了一個易于處理的歐氏空間中。

最后,一旦我們計算出表征,就可以將某種機(jī)器學(xué)習(xí)算法(通常為聚類算法)應(yīng)用于該表征上。

圖 5:流形學(xué)習(xí)方法的框架:首先,將數(shù)據(jù)表征為一個圖。接著,計算出該圖的低維嵌入。最后,將某種機(jī)器學(xué)習(xí)算法應(yīng)用于該低維表征上。

該過程也存在著一些挑戰(zhàn),例如:構(gòu)建圖的過程與應(yīng)用機(jī)器學(xué)習(xí)算法的過程是解耦的,有時還需要進(jìn)行精細(xì)的參數(shù)調(diào)優(yōu)(如近鄰節(jié)點(diǎn)的數(shù)量或鄰域半徑),從而確定如何構(gòu)建圖,使得下游任務(wù)表現(xiàn)優(yōu)異。

也許,流形學(xué)習(xí)算法的一個更為嚴(yán)重的缺點(diǎn)是,數(shù)據(jù)很少表現(xiàn)為低維的原始形式。

例如,當(dāng)我們處理圖像時,需要在預(yù)處理步驟中使用各種手動構(gòu)造的特征提取技術(shù)。

圖深度學(xué)習(xí)通過使用一個圖神經(jīng)網(wǎng)絡(luò)代替這個三階段的過程為其提供了一種現(xiàn)代化的視角。

例如,在動態(tài)圖卷積網(wǎng)絡(luò)或 DGM 中,構(gòu)建圖和學(xué)習(xí)的過程都是同一個架構(gòu)中的某一部分:

圖 6:可以將隱圖學(xué)習(xí)看做一種現(xiàn)代環(huán)境下的流形學(xué)習(xí)問題,其中將圖作為一個端到端的 GNN 工作流程的一部分進(jìn)行學(xué)習(xí),并為某些下游任務(wù)對其進(jìn)行優(yōu)化。

這類方法吸引人的地方在于,它們可以將處理單個數(shù)據(jù)點(diǎn)的過程與處理它們所在空間的過程在同一個工作流程中結(jié)合起來。

以圖像為例,我們可以使用傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)從每張圖像中提取視覺特征,并且使用圖神經(jīng)網(wǎng)絡(luò)建模它們之間的關(guān)系。

Jan Svoboda 在論文「 PeerNets: Exploiting peer wisdom against adversarial attacks」中用到了這種方法,他為卷積神經(jīng)網(wǎng)絡(luò)提出了一種基于圖的正則化層「PeerNet」,它可以實(shí)現(xiàn)在多張圖像之間交換信息。

PeerNet 與非局部(Non-local)均值濾波器在它們從多個位置聚合信息的方式上有一些相似之處,而 PeerNet 的不同之處在于它從多張圖像而不是單張圖像中聚合信息。

這種正則化技術(shù)顯著地降低了對抗性干擾的影響,而標(biāo)準(zhǔn)的卷積神經(jīng)網(wǎng)絡(luò)則很容易受其影響。

圖 7:PeerNet 是一種標(biāo)準(zhǔn)的卷積神經(jīng)網(wǎng)絡(luò)中的基于圖的正則化層,它從多張圖像中聚合相似的像素,從而降低對于對抗性干擾的敏感度。隱圖學(xué)習(xí)還有許多其它有趣的應(yīng)用,小樣本學(xué)習(xí)便是其中之一。

在小樣本學(xué)習(xí)中,基于圖的技術(shù)可以幫助使用少量示例訓(xùn)練的模型泛化。如今,由于數(shù)據(jù)標(biāo)注的開銷十分巨大,小樣本學(xué)習(xí)在計算機(jī)視覺領(lǐng)域變得越來越重要。生物學(xué)是隱圖學(xué)習(xí)另一個重要的應(yīng)用場景,人們通常通過實(shí)驗(yàn)觀察蛋白質(zhì)等生物分子的表達(dá)水平,并試圖重建它們的相互作用和信息傳遞網(wǎng)絡(luò)。

此外,隱圖學(xué)習(xí)還可以被用于對物理系統(tǒng)的分析,其中圖可以描述多個物體之間的相互作用。具體而言,研究復(fù)雜粒子相互作用的高能物理學(xué)家們近期對基于圖的方法展現(xiàn)出了濃厚的興趣。最后,隱圖學(xué)習(xí)在自然語言處理(NLP)領(lǐng)域中也得到了重要的應(yīng)用,其中圖神經(jīng)網(wǎng)絡(luò)可以被看做 Transformer 架構(gòu)的拓展。

許多上述的任務(wù)也提出了引入圖結(jié)構(gòu)的先驗(yàn)知識的問題,這仍然是一個有待解決的開放性問題:例如,我們也許會希望迫使圖遵循某些特定的構(gòu)建規(guī)則,或者與某些統(tǒng)計模型兼容。

在論文「Learning deep generative models of graphs」中,作者在嚴(yán)格遵循某些構(gòu)建規(guī)則的情況下,生成化學(xué)鍵的分子結(jié)構(gòu)圖。我們相信,盡管隱圖學(xué)習(xí)并不是一個完全新穎的概念,但是它為一些老的問題提供了新的視角。

它肯定是一種有趣的圖機(jī)器學(xué)習(xí)問題,為圖神經(jīng)網(wǎng)絡(luò)的研究者們提供了新的舞臺。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:“看不見”的圖深度學(xué)習(xí)=流形學(xué)習(xí) 2.0?

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢,導(dǎo)致戰(zhàn)爭形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?530次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Ba
    的頭像 發(fā)表于 02-12 15:15 ?848次閱讀

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對計算資源的需求也在不斷增長。NPU作為種專門為深度學(xué)習(xí)等機(jī)器
    的頭像 發(fā)表于 11-15 09:19 ?1205次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動力之,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度
    的頭像 發(fā)表于 11-14 15:17 ?1897次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?649次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是些GPU深度學(xué)習(xí)應(yīng)用案例: 、圖像識別 圖像識別是
    的頭像 發(fā)表于 10-27 11:13 ?1338次閱讀

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 10-27 10:57 ?1055次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的個熱門研究方向。以下是些FPGA加速深度
    的頭像 發(fā)表于 10-25 09:22 ?1212次閱讀

    人工智能、機(jī)器學(xué)習(xí)深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI很多技術(shù),但其中個很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)
    發(fā)表于 10-24 17:22 ?2972次閱讀
    人工智能、機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    AI大模型與深度學(xué)習(xí)關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 、深度
    的頭像 發(fā)表于 10-23 15:25 ?2874次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?607次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    今天給大俠帶來在FPAG技術(shù)交流群里平時討論的問題答疑合集(十四),以后還會多推出本系列,話不多說,上貨。 FPGA技術(shù)交流群目前已有十多個群,QQ和微信均覆蓋,需要的大俠可以進(jìn)群,起交流學(xué)習(xí)
    發(fā)表于 09-27 20:53

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對于深度學(xué)習(xí)研究者和開發(fā)者來說至關(guān)重要。在Windows操作系統(tǒng)上搭建PyTorc
    的頭像 發(fā)表于 07-16 18:29 ?2500次閱讀

    深度學(xué)習(xí)模型哪些應(yīng)用場景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個應(yīng)用場景中展現(xiàn)出其巨大的潛力和價值。這些應(yīng)用不僅改變了我們的日常生活,還推動了科技進(jìn)步和產(chǎn)業(yè)升級。以下將詳細(xì)探討深度學(xué)習(xí)模型的20個主
    的頭像 發(fā)表于 07-16 18:25 ?4070次閱讀

    深度學(xué)習(xí)算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺上,仍然是個具有挑戰(zhàn)性的任
    的頭像 發(fā)表于 07-15 10:03 ?3170次閱讀