
Introduction
無監(jiān)督多重圖表示學習(UMGRL)受到越來越多的關(guān)注,但很少有工作同時關(guān)注共同信息和私有信息的提取。在本文中,我們認為,為了進行有效和魯棒的 UMGRL,提取完整和干凈的共同信息以及更多互補性和更少噪聲的私有信息至關(guān)重要。
為了實現(xiàn)這一目標,我們首先研究了用于多重圖的解纏表示學習,以捕獲完整和干凈的共同信息,并設(shè)計了對私有信息進行對比約束,以保留互補性并消除噪聲。此外,我們在理論上分析了我們方法學到的共同和私有表示可以被證明是解纏的,并包含更多與任務(wù)相關(guān)和更少與任務(wù)無關(guān)的信息,有利于下游任務(wù)。大量實驗證實了所提方法在不同下游任務(wù)方面的優(yōu)越性。
論文標題:
Disentangled Multiplex Graph Representation Learning
論文鏈接:https://openreview.net/pdf?id=lYZOjMvxws
代碼鏈接:https://github.com/YujieMo/DMG

Motivation
以前的 UMGRL 方法旨在隱式提取不同圖之間的共同信息,這對于揭示樣本的身份是有效和魯棒的。然而,它們通常忽視了每個圖的私有信息中的互補性,并可能失去節(jié)點之間的重要屬性。
例如,在多重圖中,其中論文是節(jié)點,邊代表兩個不同圖中的共同主題或共同作者。如果一個私有邊(例如,共同主題關(guān)系)僅存在于某個圖中,并連接來自相同類別的兩篇論文,它有助于通過提供互補信息來降低類內(nèi)差距,從而識別論文。因此,有必要同時考慮共同信息和私有信息,以實現(xiàn) UMGRL 的有效性和魯棒性。
基于有助于識別樣本的共同信息,捕獲不同圖之間的所有共同信息(即完整的)是直觀的。此外,這種完整的共同信息應該僅包含共同信息(即干凈的)。相反,如果共同信息包含其他混淆的內(nèi)容,共同信息的質(zhì)量可能會受到損害。
因此,第一個問題出現(xiàn)了:如何獲得完整和干凈的共同信息?另一方面,私有信息是互補性和噪聲的混合??紤]引文網(wǎng)絡(luò)的同一個示例,如果私有邊連接來自不同類別的兩篇論文,它可能會干擾消息傳遞,應該作為噪聲被刪除。因此,第二個問題出現(xiàn)了:如何保留私有信息中的互補性并去除噪聲?
然而,以前的 UMGRL 方法很少探討了上述問題。最近,已經(jīng)開發(fā)了解耦表示學習方法,以獲得共同和私有表示,但由于多重圖中節(jié)點之間的復雜關(guān)系以及圖結(jié)構(gòu)中的互補性和噪聲,將它們應用于解決 UMGRL 中的上述問題是具有挑戰(zhàn)性的。為此,我們提出了一種新的解耦多重圖表示學習框架,以回答上述兩個問題。

Method

Notations
表示多重圖,表示多重圖中的第 張圖,表示圖的數(shù)量。
本文模型 DMG 首先通過一個共同變量 學習到經(jīng)過解耦的共同表示以及私有表示,接著獲取到融合表示。
3.1 Common Information Extraction
以前的 UMGRL 方法(例如,圖之間的對比學習方法)通常通過最大化兩個圖之間的互信息來隱式捕獲不同圖之間的共同模式。例如,為了提取共同信息,STENCIL(Zhu等人,2022)最大化每個圖與聚合圖之間的互信息,而 CKD(Zhou等人,2022)最大化不同圖中區(qū)域表示和全局表示之間的互信息。
然而,由于它們未能將共同信息與私有信息解耦,因此這些努力不能明確地捕獲完整且干凈的共同信息。為了解決這個問題,本文研究了解耦表示學習,以獲得完整且 clean 的共同信息。
具體地,首先使用圖卷積層 生成節(jié)點表示 :

表示一個帶權(quán)重的自環(huán); 表示度矩陣; 表示卷積層 的權(quán)重矩陣。
接著使用 MLP 來促進每張圖共同和私有信息的解耦過程,分別將節(jié)點嵌入 映射為共同表示和私有表示 。 給定每張圖的共同表示 ,對齊這些表示最簡單的方法使讓它們彼此相等。然而這樣做會影響共同表示的質(zhì)量。在本文中,我們通過奇異值分解操作引入了一個具有正交性和零均值的公共變量 到共同表示中。然后,我們對公共表示 與公共變量 之間進行匹配損失,旨在逐漸對齊來自不同圖的共同表示,以捕獲它們之間的完整共同信息。匹配損失的公式如下:
然后,為了解耦公共和私有表示,我們必須強化它們之間的統(tǒng)計獨立性。值得注意的是,如果公共和私有表示在統(tǒng)計上是獨立的,那么必須滿足:


, 表示采樣的鄰居數(shù)。
在上式中第一項鼓勵 重構(gòu)原始節(jié)點特征,第二項鼓勵 重構(gòu)拓撲結(jié)構(gòu)。
3.2 Private Information Constraint
私有信息是補充信息和噪音的混合物。因此,鑒于學習到的私有表示,我們希望進一步回答 3.1 節(jié)中的第二個問題,即保留補充信息并消除私有信息中的噪聲。此外,多重圖的私有信息主要位于每個圖的圖結(jié)構(gòu)中,因為不同圖的節(jié)點特征是從共享特征矩陣 X 生成的。因此,我們研究了在每個圖結(jié)構(gòu)中保留互補邊并去除噪聲邊。
首先提供了以下有關(guān)圖結(jié)構(gòu)中補充信息和噪聲的定義:
- 對圖 上的任意私有邊,即 ,若節(jié)點對 所屬的類別相同,那么 將是圖 的一條補充邊,否則是一條噪聲邊。

設(shè)計了一個對比模塊,用于進行對比損失:

3.3 Objective Function

經(jīng)過優(yōu)化,預計所提出的 DMG 將獲得完整且干凈的公共表示,以及更多互補性和更少噪聲的私有表示,以實現(xiàn)有效且穩(wěn)健的 UMGRL)。然進行平均池化(LeCun等人,1989)來融合所有圖的私有表示,以獲得總體的私有表示 P,即

最后,我們將總體的私有表示 P 與共同變量 S 連接起來,獲得最終的表示 Z。

Experiments
4.1 Node Classification

4.2 Node Clustering

4.3 Single-view graph datasets

Conclusion
本文提出了一個用于多重圖的解耦表示學習框架。為實現(xiàn)這一目標,我們首先解耦了共同表示和私有表示,以捕獲完整和干凈的共同信息。我們進一步設(shè)計了對私有信息進行對比約束,以保留互補性并消除噪聲。理論分析表明,我們方法學到的共同和私有表示可以被證明是解耦的,包含更多與任務(wù)相關(guān)的信息和更少與任務(wù)無關(guān)的信息,有利于下游任務(wù)。廣泛的實驗結(jié)果表明,所提出的方法在不同的下游任務(wù)中在有效性和魯棒性方面始終優(yōu)于現(xiàn)有方法。
·
原文標題:ICML 2023 | 對多重圖進行解耦的表示學習方法
文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
物聯(lián)網(wǎng)
+關(guān)注
關(guān)注
2930文章
46223瀏覽量
392265
原文標題:ICML 2023 | 對多重圖進行解耦的表示學習方法
文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
無軸承異步電機氣隙磁場定向逆解耦控制
無軸承異步電機的RFOC逆動態(tài)解耦控制
思必馳與上海交大聯(lián)合實驗室兩篇論文入選ICML 2025

軟硬解耦+模塊化:深度拆解開放架構(gòu)的“自由”基因

第一章 W55MH32 高性能以太網(wǎng)單片機的學習方法概述

使用MATLAB進行無監(jiān)督學習

永磁同步電機電流環(huán)改進內(nèi)模解耦控制的研究
一種無刷直流電機霍耳信號與定子繞組關(guān)系自學習方法
DeepSeek與Kimi揭示o1秘密,思維鏈學習方法顯成效
傳統(tǒng)機器學習方法和應用指導

瑞薩電子與吉利汽車聯(lián)合舉辦汽車主控芯片軟硬解耦能力提升訓練營
什么是機器學習?通過機器學習方法能解決哪些問題?

如何使用 PyTorch 進行強化學習
《DNK210使用指南 -CanMV版 V1.0》第一章本書學習方法
不平衡電網(wǎng)下基于功率解耦的PWM整流器控制策略研究

評論