chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在實踐應(yīng)用中極具潛力的圖神經(jīng)網(wǎng)絡(luò)(GNNs)

獨愛72H ? 來源:讀芯術(shù) ? 作者:讀芯術(shù) ? 2020-03-15 23:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(文章來源:讀芯術(shù))
深度學(xué)習(xí)已經(jīng)改變了我們處理數(shù)據(jù)的方式,通過使用日益增長的計算“廉價”資源(摩爾定律)來解決現(xiàn)實世界問題,并且能夠完成一些人腦幾乎毫不費力就能完成的認(rèn)知任務(wù),例如圖像分類,自然語言處理,視頻處理等等。

但這些任務(wù)具有的大多數(shù)數(shù)據(jù)和結(jié)構(gòu)通常是在歐幾里得空間中表示的。然而,我們目睹了越來越多的問題,這些問題生成的數(shù)據(jù)來自非歐幾里得域,它們更適合被表示為具有復(fù)雜關(guān)系和對象之間相互依賴關(guān)系的圖。圖數(shù)據(jù)的復(fù)雜性給經(jīng)典ML算法和現(xiàn)代DL算法帶來了重大挑戰(zhàn)。近來出現(xiàn)了許多擴展DL方法使之用于圖數(shù)據(jù)的研究。

花點時間想像一下,如果我們收集了所有“獲批”藥物或一般藥物的結(jié)構(gòu),并訓(xùn)練一個GNN來學(xué)習(xí)藥物的分子模式/結(jié)構(gòu),它會學(xué)會識別在此處或太空中發(fā)現(xiàn)的分子是不是藥物。我相信結(jié)果可能相當(dāng)令人驚訝,并且能幫助我們發(fā)現(xiàn)或重新發(fā)現(xiàn)可以治愈如今被認(rèn)為無法治愈的疾病的藥物。如果考慮大多數(shù)疾病甚至死亡本身都可以看作是技術(shù)問題。那么為什么有些生物可以活幾百年而有些只能活幾十年?我們可以無限延長壽命嗎?

GNNs與對應(yīng)的DL算法具有相似的屬性,它能夠進行回歸,分類,為空節(jié)點和邊生成數(shù)據(jù),以及許多尚待發(fā)現(xiàn)的功能。該領(lǐng)域仍處于起步階段,誰也不知道幾年內(nèi)我們能做些什么,以及用從現(xiàn)在開始的幾千篇論文做些什么。對我來說,最有趣的是推薦以及醫(yī)療領(lǐng)域的應(yīng)用,其中醫(yī)療領(lǐng)域為no.1。

如今,圖可能是不規(guī)則的,一張圖可能具有可變數(shù)目的無序節(jié)點,并且圖中節(jié)點可能具有不同數(shù)量的鄰居,從而導(dǎo)致一些在圖像領(lǐng)域中易于計算的重要的操作(例如卷積),很難應(yīng)用于圖域。此外,現(xiàn)有機器學(xué)習(xí)算法的核心假設(shè)是實體相互獨立。該假設(shè)不再適用于圖數(shù)據(jù),因為每個實體(節(jié)點)通過各種類別的鏈接(例如引文,好友和交互)與其他實體(節(jié)點)相關(guān)聯(lián)。但這不是障礙,因為最近我們看到人們對擴展或者應(yīng)該說是移植深度學(xué)習(xí)算法到圖領(lǐng)域(尤其是設(shè)計來用于圖數(shù)據(jù))的興趣日益濃厚。

卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)不在本文討論范圍之內(nèi)。循環(huán)圖神經(jīng)網(wǎng)絡(luò)(RecGNNs)大多是圖神經(jīng)網(wǎng)絡(luò)的開創(chuàng)性作品。RecGNN旨在學(xué)習(xí)具有循環(huán)神經(jīng)架構(gòu)的節(jié)點表示。它們假設(shè)圖中的節(jié)點不斷與其鄰居交換信息/消息,直到達到穩(wěn)定的平衡。RecGNNs在理論上很重要,它啟發(fā)了后來對卷積圖神經(jīng)網(wǎng)絡(luò)的研究。特別地,消息傳遞的思想被基于空間的卷積圖神經(jīng)網(wǎng)絡(luò)所繼承。

卷積圖神經(jīng)網(wǎng)絡(luò)(ConvGNNs)將卷積運算從網(wǎng)格數(shù)據(jù)推廣到了圖形數(shù)據(jù)。主要思想是通過聚合節(jié)點自身的特征和鄰居的特征來生成節(jié)點的表示,其中。與RecGNNs不同,ConvGNNs堆疊多個圖卷積層以提取高級節(jié)點表示。ConvGNNs在建立許多其它的復(fù)雜GNN模型中起著核心作用。圖2a展示了用于節(jié)點分類的ConvGNN。圖2b展示了用于圖分類的ConvGNN。

圖自動編碼器(GAEs)是無監(jiān)督的學(xué)習(xí)框架,可將節(jié)點/圖編碼到潛在的矢量空間中,并通過編碼后的信息重建圖數(shù)據(jù)。GAEs用于學(xué)習(xí)網(wǎng)絡(luò)嵌入和圖生成分布。對于網(wǎng)絡(luò)嵌入,GAEs通過重建圖結(jié)構(gòu)信息(例如圖鄰接矩陣)來學(xué)習(xí)潛在節(jié)點表示。對于圖生成,某些方法逐步生成圖的節(jié)點和邊,而其他方法則一次全部輸出圖形。圖2c展示了一個用于網(wǎng)絡(luò)嵌入的GAE。

時空圖神經(jīng)網(wǎng)絡(luò)(STGNNs)旨在從時空圖中學(xué)習(xí)隱藏的模式,這種模式在各種應(yīng)用中變得越來越重要,例如交通速度預(yù)測,駕駛員操縱預(yù)期和人類動作識別。STGNNs的關(guān)鍵思想是同時考慮空間依賴性和時間依賴性。許多當(dāng)前的方法將用來捕獲空間依賴性的圖卷積和用來對時間依賴性進行建模的RNNs或CN

圖分類旨在預(yù)測整個圖的類標(biāo)簽。可以通過圖卷積層,圖池層和/或讀出層的組合來實現(xiàn)此任務(wù)的端到端學(xué)習(xí)。圖卷積層負(fù)責(zé)精確的高級節(jié)點表示,而圖池化層則充當(dāng)下采樣的角色,從而每次將每個圖都粗化為子結(jié)構(gòu)。讀出層將每個圖的節(jié)點表示折疊為圖表示。通過將多層感知器和softmax層應(yīng)用于圖表示,我們可以構(gòu)建用于圖分類的端到端框架。在圖2b中給出了一個例子。

當(dāng)圖中沒有可用的類標(biāo)簽時,可以在端到端框架中以完全無監(jiān)督的方式學(xué)習(xí)圖嵌入。這些算法以兩種方式利用邊級信息。一種簡單的方法是采用自動編碼器框架,其編碼器使用圖卷積層將圖嵌入到潛在表示中,在其上使用解碼器來重構(gòu)圖結(jié)構(gòu)。另一種流行的方法是利用負(fù)采樣方法,該方法將一部分節(jié)點對采樣為負(fù)對,而圖中具有鏈接的現(xiàn)有節(jié)點對為正對。然后應(yīng)用邏輯回歸層來區(qū)分正對和負(fù)對。
(責(zé)任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)電機故障診斷中的應(yīng)用

    的診斷誤差。仿真結(jié)果驗證了該算法的有效性。 純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)電機故障診斷中的應(yīng)用.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版
    發(fā)表于 06-16 22:09

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)多個方面存在顯著差異,以下是對兩者的比較: 一、結(jié)構(gòu)特點 BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋
    的頭像 發(fā)表于 02-12 15:53 ?673次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立梯度下降法的基礎(chǔ)上,是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過計算每層網(wǎng)絡(luò)的誤差,并將這
    的頭像 發(fā)表于 02-12 15:18 ?775次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?863次閱讀

    BP神經(jīng)網(wǎng)絡(luò)圖像識別中的應(yīng)用

    BP神經(jīng)網(wǎng)絡(luò)圖像識別中發(fā)揮著重要作用,其多層結(jié)構(gòu)使得網(wǎng)絡(luò)能夠?qū)W習(xí)到復(fù)雜的特征表達,適用于處理非線性問題。以下是對BP神經(jīng)網(wǎng)絡(luò)圖像識別中應(yīng)
    的頭像 發(fā)表于 02-12 15:12 ?681次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工
    的頭像 發(fā)表于 01-09 10:24 ?1209次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    經(jīng)典神經(jīng)網(wǎng)絡(luò)(GNNs)的基準(zhǔn)分析研究

    本文簡要介紹了經(jīng)典神經(jīng)網(wǎng)絡(luò)GNNs)的基準(zhǔn)分析研究,發(fā)表 NeurIPS 2024。 文章回顧了經(jīng)典 GNNs 模型
    的頭像 發(fā)表于 11-27 09:16 ?800次閱讀
    經(jīng)典<b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(<b class='flag-5'>GNNs</b>)的基準(zhǔn)分析研究

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    深度學(xué)習(xí)領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)
    的頭像 發(fā)表于 11-15 14:53 ?1878次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機器學(xué)習(xí)領(lǐng)域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1133次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計用于解決長期依賴問題,特別是處理時間序列數(shù)據(jù)時表現(xiàn)出色。以下是LSTM神經(jīng)
    的頭像 發(fā)表于 11-13 10:05 ?1632次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。處理序列數(shù)據(jù)時,如時間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時間序列中的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1587次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新Moku:Pro平臺新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠Moku設(shè)備上部署實時機器學(xué)習(xí)算法,進行快速、靈活的信號分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?667次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    轉(zhuǎn)換成一個很長的一維向量。轉(zhuǎn)換是在所謂的壓平層中完成的,隨后是一個或兩個全連接層。全連接層的神經(jīng)元類似于2所示的結(jié)構(gòu)。神經(jīng)網(wǎng)絡(luò)最后一層的輸出要與需要區(qū)分的類別的數(shù)量一致。此外,最后
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    FPGA深度神經(jīng)網(wǎng)絡(luò)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)作為其核心算法之一,圖像識別、語音識別、自然語言處理等領(lǐng)域取得了顯著成果。然而,傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)模型
    的頭像 發(fā)表于 07-24 10:42 ?1209次閱讀