IEEE TNNLS'22:基于圖神經網絡的多視角多任務學習
網絡數據挖掘中的任務通常是多種多樣的,主要的任務包括節點層面的分類以及邊層面的預測。已有的方法通常單獨討論這兩個任務,而忽視了這兩個任務之間的相關性。事實上,節點分類和鏈接預測這兩個任務存在著緊密的聯系,而多任務學習可以利用任務之間的相關性使得不同任務聯合優化之后的性能均得到提升。此外,網絡中的信息通常是異質的,使得網絡中存在多個不同的視圖,不同的任務對于不同視圖的信息的利用也存在差異。鑒于此,本文提出了一種多任務-多視圖的表示學習方法,首次將多任務學習,多視圖學習在圖表示學習領域聯合起來,并且取得了更好的性能。通過在多個現實世界的數據集上的實驗證明了多任務學習以及多視圖學習均可以提升每個任務的表現,并且可以極大地降低資源的開銷。
該成果“Multi-Task Representation Learning with Multi-View Graph Convolutional Networks” 發表在IEEE Transactions on Neural Networks and Learning Systems (TNNLS) 2022上,TNNLS是中科院SCI一區期刊,CCF B類,該期刊每年出版12期,每年發表文章約300篇。

- 論文鏈接:
- https://ieeexplore.ieee.org/abstract/document/9274508
簡介

圖表1 多視圖與多任務的關系
網絡分析是數據挖掘領域中廣泛關注的熱點,網絡表示學習 (network representation learning) 嘗試用低維稠密的矩陣最大化保留網絡的原始信息,進而執行后續的網絡分析任務。
鏈接預測與節點分類是網絡表示學習中兩個重要的后續任務,鏈接預測任務目的是預測網絡中節點之間是否存在邊,而節點分類則是判斷節點所屬的類別。傳統的工作通常是將這兩個任務分別進行,這不僅僅造成了一些重復工作的浪費也忽略了兩個任務之間的關聯。因為,從本質上看,鏈接預測與節點分類都可以歸屬為分類的問題,分別是針對邊的層面以及節點的層面。因此,鏈接預測與節點分類這兩個任務可以被同時優化。除此之外,目前已有的圖卷積神經網絡(GCN)無法利用網絡中豐富的異質信息,因此對于不同的任務難以抽取到有用的信息來增強模型的學習能力。如圖表1(a)所示,網絡中存在的多個視圖,通常兩兩之間是存在著agreement的信息,同時也可能存在disagreement的信息。因此,為了更好地學習網絡的向量表示,考慮多個視圖之間的復雜關系是很有必要的。除此之外,經過我們的分析,如圖表1(b)所示,在不同的視圖中,鏈接預測任務與節點分類任務之間存在著密切的聯系,并且兩者之間可以在底層共享信息,這使得網絡表示學習中的多任務學習具備可行性。
為了采用圖神經網絡來抽取多個視圖之間的信息以及對多個視圖之間的關系進行建模,需要對現有的圖神經網絡進行改進。除此之外,目前的圖神經網絡是針對下游的特定任務進行優化,這往往帶來了很低的效率以及難以利用廣泛的標簽信息進行監督學習。多任務學習是最近很熱門的研究方向,這在圖神經網絡領域卻并沒有被深入的探究,這促使我們對網絡中的多任務學習進行了研究。
有鑒于上述的問題,我們提出了一個基于多任務、多視角學習的圖神經網絡模型,首次將鏈接預測與節點分類任務同時進行,兩者之間可以相互提升,通過實驗驗證表明本文提出的模型取得了比基線模型更好的效果。
模型設計

圖表2 MT-MVGCN模型示意圖
我們提出了一個名為MT-MVGCN的模型來同時處理圖上的多任務、多視角學習問題,如圖表2所示。首先我們通過一個Multi-View GCN來對網絡的結構特性以及節點本身的特征進行抽取,接著為了考慮不同任務之間、不同視角之間、任務與視角之間復雜的關系,我們提出了View attention以及Task attention兩種機制來學習不同視角之間的重要性,進而對多個視角的信息進行融合得到統一的節點向量表示。最后,節點的向量表示會作為特征用于節點分類任務以及鏈接預測任務。值得注意的是,我們還增加了一個View Construction任務作為輔助任務來增強模型的表達能力。
- Multi-View GCN模塊
為了抽取多個視角的信息,我們選擇GCN來學習網絡的結構信息,同時為了兼顧可擴展性以及多視角之間的聯系,我們設計了如下的傳播規則:

在每一層,相較于原始的GCN,模型的參數W是被多個視角共享的,這有以下三點優勢:(1) 滿足了模型的可擴展性,不會隨著網絡中視角數目的變化而受到影響,進而降低了模型的復雜度;(2) 多個視角之間可以通過W建立隱式的關聯,進而實現相互協作;(3) 將多個視角投影到相同的低維空間中,進而為后續的多視角融合提供基礎。
- Attention機制

圖表3 Attention機制示意圖
注意力機制被認為可以學習到不同視角的重要性,因此我們利用注意力機制學習網絡中各個視角的重要性,并以此為依據對多視角的信息進行融合。如圖表3所示,我們首先考慮的是多個視角之間的關系,設計了一種類似于self-attention的模式,讓多個視角共同投票決定每個視角的重要性,因此我們以3個視角為例,將attention機制抽象為query-key-value的模式,進而定義了如下的注意力機制:

最終的融合過程可以理解為一個查詢的過程,首先計算query矩陣Q來表示所有視角的一致性,然后對于每個視角計算key矩陣K作為索引,最后確定每個視角的value矩陣V,并將V矩陣根據Q和K的點積得到的系數進行加權,作為最終的結果。值得注意的是,我們仿照Transformer的思路將注意力機制擴展為多頭注意力(multi-head attention)來提高計算效率以及表達能力。
由于不同的任務所需要的信息是有差異的,相比于view attention,我們還提出了task attention來建立任務與視角之間的聯系。Task attention整體的形式與view attention十分類似,區別在于對于每個任務我們將Q,K矩陣隨機初始化,因此Q,K將只會根據特定的任務被優化,進而可以幫助每個任務學習到對自身有益的信息。
- 多任務學習
為了同時處理多個任務,我們將所有任務的目標函數聯合優化,得到了如下的目標函數:

其中M為任務的數目,
是衡量每個任務的權重的超參數,由于鏈接預測本質上是對邊進行二分類,與節點分類一致,均可以被視為分類問題,因此我們均采用交叉熵作為損失函數。
同時,我們還引入了view construction作為輔助任務來幫助模型學習,由于最終的融合結果包含了多個視角的信息,因此我們可以通過融合的結果來重構每個視角的信息,進而引入了reconstruction loss:

我們將view construction任務與鏈接預測、節點分類共同優化,取得了顯著的性能提升。
實驗結果
我們在多個真實的數據集上進行了廣泛的實驗,針對多視角多任務學習的特征,選擇了四個類別的基線算法進行對比,分別為STSV(單任務單視角)、STMV(單任務多視角)、MTSV(多任務單視角)以及MTMV(多任務多視角)四個不同的類別。實驗結果為下表所示:

圖表4 鏈接預測實驗結果

圖表5 節點分類實驗結果
我們的模型在多個數據集上均取得了最優的效果,證明了我們方法的優越性。實驗的結論可以歸結為如下幾點:
- 對于節點分類任務,在不同的訓練集比例下,我們的模型均可以取得最優的效果。
- 在鏈接預測任務中,我們的方法也可以取得更好的準確率以及AUC分數,這說明了我們的方法是行之有效的。
- 我們發現加入了輔助任務之后,將模型改進為MT-MVGCN++之后,模型的效果進一步提升。
- 相較于單任務學習,多任務學習通常可以取得更好的效果;相對于單視圖學習,多視圖學習也可以取得性能的提升。綜合而言,多任務多視圖學習可以取得最佳的實驗結果。
結論
這篇論文提出了一個多任務多視圖圖表示學習的框架,首先分析了在圖數據上進行多任務多視圖學習的重要性以及必要性,然后詳細地闡述了模型的設計理念:對于圖神經網絡進行改進使得圖卷積操作可以在多視圖數據上進行信息的抽取,對于多個視圖抽取得到不同的視圖之間的信息之后,兩種注意力機制分別考慮了不同視圖之間的關系以及視圖與任務之間的關系進行信息的整合,從而學習得到多個視圖的聯合表示并用于特定的任務。除此之外,本文還提出了視圖重構任務可以作為一個輔助任務對模型進行約束,從而使得模型的融合更加具有魯棒性。實驗結果表明,本文提出的模型可以有效地抽取多個視圖的信息以及利用多個任務之間的相關性進行互相提升,進而可以取得相較于單任務,單視圖表示學習的更佳的效果。
詳細內容請參見:
Hong Huang, Yu Song, Yao Wu, Jia Shi, Xia Xie and Hai Jin. Multitask Representation Learning With Multiview Graph Convolutional Networks[J]. IEEE Transactions on Neural Networks and Learning Systems (TNNLS). 2022 March. 33(3): 983-995.
https://ieeexplore.ieee.org/abstract/document/9274508