chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么深度模型在 CV 領(lǐng)域好使,但用在圖網(wǎng)絡(luò)上就這么難呢?

新機(jī)器視覺(jué) ? 來(lái)源:https://www.zhihu.com/people/Z ? 作者:Zhihong Deng ? 2020-11-20 16:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

“強(qiáng)基固本,行穩(wěn)致遠(yuǎn)”,科學(xué)研究離不開(kāi)理論基礎(chǔ),人工智能學(xué)科更是需要數(shù)學(xué)、物理、神經(jīng)科學(xué)等基礎(chǔ)學(xué)科提供有力支撐,為了緊扣時(shí)代脈搏,我們推出“強(qiáng)基固本”專(zhuān)欄,講解AI領(lǐng)域的基礎(chǔ)知識(shí),為你的科研學(xué)習(xí)提供助力,夯實(shí)理論基礎(chǔ),提升原始創(chuàng)新能力,敬請(qǐng)關(guān)注。

作者:Zhihong Deng

地址:https://www.zhihu.com/people/Zhi-Hong.Deng

最近看了 Michael Bronstein 教授寫(xiě)的一篇博客,分析得挺好的,簡(jiǎn)單分享一下。 深度學(xué)習(xí),特別是 CV 領(lǐng)域的模型,往往有數(shù)十上百層,與此相比,在圖“深度學(xué)習(xí)”中(大部分工作都 ≤5 層,談不上深,所以加個(gè)引號(hào)吧),大部分模型架構(gòu)都是淺層的,設(shè)計(jì)深度模型到底有沒(méi)有用呢? 現(xiàn)有的一些工作告訴我們,訓(xùn)練深度圖神經(jīng)網(wǎng)絡(luò)是很難的,除了深度學(xué)習(xí)的傳統(tǒng)問(wèn)題(梯度消失和過(guò)擬合)之外,針對(duì)圖本身的特性,還需要克服另外兩個(gè)問(wèn)題:

過(guò)渡平滑:使用多個(gè)卷積層后,結(jié)點(diǎn)特征趨向于收斂到相同或相似的向量,這使它們變得難以區(qū)分[1][2][3]。

過(guò)度壓縮:在使用多層圖網(wǎng)絡(luò)后,鄰居數(shù)量指數(shù)級(jí)增長(zhǎng),要將大量的結(jié)點(diǎn)信息壓縮到一個(gè)結(jié)點(diǎn)上就會(huì)存在過(guò)度壓縮的問(wèn)題,這也稱(chēng)為瓶頸現(xiàn)象[4]。

上表展示了幾種嘗試解決深度問(wèn)題的方法,包括殘差連接和兩種歸一化技術(shù)。可以看出隨著網(wǎng)絡(luò)層級(jí)加深,GCN-res 效果急劇變差。PairNorm 相對(duì)穩(wěn)定,但降低了性能。NodeNorm 效果最佳,但它的最佳效果是在兩層圖網(wǎng)絡(luò)時(shí)取得的。這個(gè)實(shí)驗(yàn)告訴我們,要將深度圖網(wǎng)絡(luò)帶來(lái)的提升和訓(xùn)練它所需要的技巧分開(kāi)討論是很難的。 為什么深度模型在 CV 領(lǐng)域這么好使,但用在圖網(wǎng)絡(luò)上就這么難呢?作者給出了幾個(gè)觀點(diǎn):

01圖的結(jié)構(gòu)

現(xiàn)有工作告訴我們,在分子圖、點(diǎn)云和網(wǎng)格(圖像也可以看作是一種網(wǎng)格狀的圖)上使用深度圖網(wǎng)絡(luò)是有效的,這些圖跟我們常用以評(píng)估圖神經(jīng)網(wǎng)絡(luò)效果的引用網(wǎng)絡(luò)(例如:Cora、PubMed 或 CoauthorCS)等有何不同呢?下圖就給出一個(gè)很清晰的示例:

我們常用的引用網(wǎng)絡(luò)這一類(lèi)圖往往屬于直徑較小的小世界網(wǎng)絡(luò),簡(jiǎn)單點(diǎn)講就是圖中任意兩個(gè)結(jié)點(diǎn)的距離都比較近,幾跳就能到達(dá),使用更深的網(wǎng)絡(luò)架構(gòu)并不會(huì)擴(kuò)大感受野;相比之下,在網(wǎng)格(比如圖像)這一類(lèi)圖中,增加層數(shù)能讓感受野成倍增長(zhǎng),從而更好地捕捉到上下文。使用不同顏色標(biāo)注不同層數(shù)所能到達(dá)的結(jié)點(diǎn),可以看到,同樣是12個(gè)結(jié)點(diǎn)的圖,左圖僅用兩種顏色就夠了,右圖則用了6種顏色。

02短程與遠(yuǎn)程信息

根據(jù)問(wèn)題的特性,有的問(wèn)題則可以通過(guò)短距離的信息解決,比如社交網(wǎng)絡(luò)中,預(yù)測(cè)往往僅依賴(lài)于結(jié)點(diǎn)的局部鄰居;有的問(wèn)題可能需要更長(zhǎng)距離的信息,比如分子圖種分子的化學(xué)性質(zhì)可能取決于另一側(cè)的原子組合,這就需要深度圖網(wǎng)絡(luò)來(lái)組合這些遠(yuǎn)程信息。但是隨著層數(shù)增多,如果圖結(jié)構(gòu)會(huì)引起結(jié)點(diǎn)感受野的指數(shù)級(jí)增長(zhǎng),那么瓶頸現(xiàn)象就會(huì)阻止遠(yuǎn)程信息的有效傳播:

上圖就展示了一個(gè)例子,在使用深度圖網(wǎng)絡(luò)時(shí),我們需要把多個(gè)結(jié)點(diǎn)的信息整合到一個(gè)結(jié)點(diǎn)中并迭代此過(guò)程,所以傳播過(guò)程中可能會(huì)丟失不少有用的信息,也就解釋了為什么深度模型難以提高性能。

03理論局限

我們?cè)谑褂蒙疃壬窠?jīng)網(wǎng)絡(luò)的時(shí)候,往往可以做一些可視化分析,比如 CNN 可以將每一層學(xué)到的特征做一個(gè)可視化:

淺層神經(jīng)元學(xué)到是比較簡(jiǎn)單的特征,比如某些紋理、線條;深層神經(jīng)元學(xué)到的則是更復(fù)雜的一些特征,比如眼睛,鼻子等等。但是,圖神經(jīng)網(wǎng)絡(luò)里也能這么分析嗎?多層的圖網(wǎng)絡(luò)也能學(xué)到逐漸復(fù)雜的性質(zhì)嗎?我們目前尚不清楚哪些圖形性質(zhì)可以用淺層圖網(wǎng)絡(luò)學(xué)到,哪些需要更深的網(wǎng)絡(luò),哪些是根本無(wú)法計(jì)算的。

04深度 vs. 豐富度

在 CV 中,因?yàn)樗袌D像都是非常規(guī)則的網(wǎng)格結(jié)構(gòu),所以結(jié)構(gòu)就變得不再重要的,但在圖深度學(xué)習(xí)中,結(jié)構(gòu)是很重要的,如何設(shè)計(jì)更復(fù)雜的,可以處理高階信息(比如:各種motif)的消息傳遞機(jī)制仍有待探索。目前大家主要關(guān)注的還是1-跳卷積,但我們可以設(shè)計(jì)出多跳的filter,比如 SIGN 這篇論文。有趣的是,這跟 CV 領(lǐng)域的發(fā)展歷程恰恰相反,CV 領(lǐng)域早期的淺層模型一般使用的是大型 filter(比如:11×11),后來(lái)逐漸發(fā)展到使用小型 filter(比如 :3×3)的深度模型。這里作者想表達(dá)的“豐富度”的意思應(yīng)該是指,我們是不是也能像 CV 里 GoogLeNet 那樣使用Inception模塊,同時(shí)使用1-跳卷積,2-跳卷積等多種 filter(對(duì)應(yīng) CV 里的 3×3、5×5 等等),這其實(shí)也會(huì)間接地幫助到信息的有效傳播。

05評(píng)估

最后但或許也很重要的一點(diǎn)就是評(píng)估方法,一些常見(jiàn)的基準(zhǔn)數(shù)據(jù)集和方法未必能準(zhǔn)確評(píng)估圖神經(jīng)網(wǎng)絡(luò)的效果,我們觀察到深度圖網(wǎng)絡(luò)在一些數(shù)據(jù)集上性能隨深度下降,或許僅僅是因?yàn)閿?shù)據(jù)集太小,發(fā)生了過(guò)擬合。斯坦福新推出的 Open Graph Benchmark 可以解決部分問(wèn)題,它提高了大規(guī)模的圖數(shù)據(jù),并給定了訓(xùn)練和測(cè)試數(shù)據(jù)的劃分方式。 [1] More precisely, over-smoothing makes node feature vector collapse into a subspace, see K. Oono and T. Suzuki,Graph neural networks exponentially loose expressive power for node classification(2019). arXiv:1905.10947, which provides asymptotic analysis using dynamic systems formalist. [2] Q. Li, Z. Han, X.-M. Wu,Deeper insights into graph convolutional networks for semi-supervised learning(2019). Proc. AAAI. Draws the analogy between the GCN model and Laplacian smoothing and points to the over-smoothing phenomenon. [3] H. Nt and T. Maehara,Revisiting graph neural networks: All we have is low-pass filters(2019). arXiv:1905.09550. Uses spectral analysis on graphs to answer when GCNs perform well. [4] U. Alon and E. Yahav,On the bottleneck of graph neural networks and its practical implications(2020). arXiv:2006.05205. Identified the over-squashing phenomenon in graph neural networks, which is similar to one observed in sequential recurrent models.

聲明:部分內(nèi)容來(lái)源于網(wǎng)絡(luò),僅供讀者學(xué)術(shù)交流之目的。文章版權(quán)歸原作者所有。如有不妥,請(qǐng)聯(lián)系刪除。

責(zé)任編輯:PSY

原文標(biāo)題:我們真的需要深度圖神經(jīng)網(wǎng)絡(luò)嗎?

文章出處:【微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    8125

    瀏覽量

    93034
  • CV
    CV
    +關(guān)注

    關(guān)注

    0

    文章

    54

    瀏覽量

    17463
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5589

    瀏覽量

    123884

原文標(biāo)題:我們真的需要深度圖神經(jīng)網(wǎng)絡(luò)嗎?

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    ,從而得到對(duì)我們有價(jià)值的識(shí)別信息。這種迭代性并不是十分必要的,因?yàn)閺膶?shí)踐來(lái)看,即使只有單層網(wǎng)絡(luò)模型,只要擁有充分?jǐn)?shù)量的神經(jīng)元,也可以獲得較高的準(zhǔn)確率。不過(guò)該種方式的一個(gè)重要缺點(diǎn)就是參數(shù)重多,導(dǎo)致
    發(fā)表于 10-28 08:02

    【內(nèi)測(cè)活動(dòng)同步開(kāi)啟】這么小?這么強(qiáng)?新一代大模型MCP開(kāi)發(fā)板來(lái)啦!

    【內(nèi)測(cè)活動(dòng)同步開(kāi)啟】這么?。?b class='flag-5'>這么強(qiáng)?新一代大模型MCP開(kāi)發(fā)板來(lái)啦! 聆思全新一代六合一芯片「LS26系列」,搭載WIFI / BLE & BT / NPU,與「小聆AI」強(qiáng)強(qiáng)聯(lián)合
    發(fā)表于 09-25 11:47

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是自動(dòng)駕駛領(lǐng)域,部分廠商開(kāi)始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過(guò)時(shí)”的激烈爭(zhēng)論。然而,從技術(shù)原理、算力成本、安全需求與
    的頭像 發(fā)表于 08-13 09:15 ?3897次閱讀
    自動(dòng)駕駛中Transformer大<b class='flag-5'>模型</b>會(huì)取代<b class='flag-5'>深度</b>學(xué)習(xí)嗎?

    華興變壓器:絕緣壽命預(yù)測(cè)為何這么?

    您在使用華興變壓器時(shí),是不是也疑惑:三相隔離變壓器的絕緣壽命預(yù)測(cè)咋就這么?這可困擾著不少企業(yè)。先看絕緣材料的個(gè)體差異。即便是同一批次生產(chǎn)的絕緣材料,由于原材料微小雜質(zhì)、生產(chǎn)時(shí)的溫
    的頭像 發(fā)表于 07-11 11:24 ?331次閱讀
    華興變壓器:絕緣壽命預(yù)測(cè)為何<b class='flag-5'>這么</b><b class='flag-5'>難</b>?

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來(lái)了挑戰(zhàn)。
    發(fā)表于 07-03 19:43

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】基于 DeepLab 模型的圖像分割

    STM32MP257 開(kāi)發(fā)板基于 DeepLab 模型實(shí)現(xiàn)圖像分割的項(xiàng)目設(shè)計(jì),包括 DeepLab 模型介紹、官方Demo例程測(cè)試、USB 攝像頭采集畫(huà)面的動(dòng)態(tài)圖像分割、板端圖片靜態(tài)推理等,為該開(kāi)發(fā)板人工智能等相關(guān)
    發(fā)表于 06-21 21:11

    半導(dǎo)體器件CV測(cè)量技術(shù)解析

    前言:研究器件特性和器件建模都離不開(kāi)精確的電容電壓(CV)測(cè)量。精確的CV模型仿真器件的開(kāi)關(guān)特性,延遲特性等方面尤為重要。目前,寬禁帶器
    的頭像 發(fā)表于 06-01 10:02 ?1158次閱讀
    半導(dǎo)體器件<b class='flag-5'>CV</b>測(cè)量技術(shù)解析

    OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無(wú)法導(dǎo)出INT8模型怎么解決?

    無(wú)法 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    模型領(lǐng)域常用名詞解釋?zhuān)ń?00個(gè))

    的分類(lèi)進(jìn)行了整理,以下供參考:模型架構(gòu)與基礎(chǔ)概念大語(yǔ)言模型(LLM,LargeLanguageModel):一種基于深度學(xué)習(xí)的大規(guī)模神經(jīng)網(wǎng)絡(luò)模型
    的頭像 發(fā)表于 02-19 11:49 ?1267次閱讀
    大<b class='flag-5'>模型領(lǐng)域</b>常用名詞解釋?zhuān)ń?00個(gè))

    請(qǐng)問(wèn)有沒(méi)有不在linux對(duì).pt模型向.kmodel轉(zhuǎn)換的教程

    1、請(qǐng)問(wèn)有沒(méi)有不在linux對(duì).pt模型向.kmodel轉(zhuǎn)換的教程? 我看網(wǎng)上有個(gè)nncase studio的教程(AI模型GUI編譯工具 nncase studio食用指南 -
    發(fā)表于 02-08 08:56

    吉利星睿大模型與DeepSeek完成深度融合

    2 月 6 日,吉利汽車(chē)宣布其自研睿大模型已與 DeepSeek 完成深度融合。 智能化浪潮下,AI 大模型成為車(chē)企競(jìng)爭(zhēng)的關(guān)鍵技術(shù)。吉利此次與 DeepSeek 合作,是其
    的頭像 發(fā)表于 02-07 18:13 ?1110次閱讀

    【「基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開(kāi)發(fā)與優(yōu)化>這本書(shū)。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是已經(jīng)預(yù)訓(xùn)練好的大型
    發(fā)表于 01-14 16:51

    邊緣設(shè)備設(shè)計(jì)和部署深度神經(jīng)網(wǎng)絡(luò)的實(shí)用框架

    ,以及由強(qiáng)大而高效的軟件工具鏈補(bǔ)充的低成本邊緣設(shè)備的可用性。此外,需要避免通過(guò)網(wǎng)絡(luò)傳輸數(shù)據(jù)——無(wú)論是出于安全原因還是僅僅為了盡量減少通信成本。 邊緣人工智能涵蓋廣泛的設(shè)備、傳感器、微控制器、片多微處理器、
    的頭像 發(fā)表于 12-20 11:28 ?1358次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    的是百度的Picodet模型,它是一種基于深度卷積網(wǎng)絡(luò)(DNN)的輕量級(jí)目標(biāo)檢測(cè)模型,具有非常高的檢測(cè)精度,可以低算力設(shè)備進(jìn)行實(shí)時(shí)的端到端
    發(fā)表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    地選擇適合的模型。不同的模型具有不同的特點(diǎn)和優(yōu)勢(shì)。客服領(lǐng)域,常用的模型包括循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN
    發(fā)表于 12-17 16:53