Upgrade to Pro — share decks privately, control downloads, hide ads and more …

[Journal club] Graph Attention Networks

[Journal club] Graph Attention Networks

More Decks by Semantic Machine Intelligence Lab., Keio Univ.

Other Decks in Technology

Transcript

  1. Petar Veličković(University of Cambridge), Guillem Cucurull(Centre de Visio per Computador),

    Arantxa Casanova(Centre de Visio per Computador), Adriana Romero(Montreal Institute for Learning Algorithms), Pietro Liò(University of Cambridge), Yoshua Bengio(Montreal Institute for Learning Algorithms) Graph Attention Networks Veličković, Petar, et al. "Graph attention networks." ICLR 2018. 慶應矩塟倧孊 杉浊孔明研究宀 ç•‘äž­é§¿å¹³
  2. 3 • GNN においお Edge の情報を Attention の重みずしお衚珟しノヌドを曎新する手法 Graph Attention

    Network ( GAT ) の提案 − 䞊列化凊理が可胜ずなりEdge を含む蚈算速床の䜎䞋を防止 − Node 間の重芁床を倉えられるこずによる解釈性の向䞊が期埅 − 既存手法よりも高いスコアを獲埗 抂芁 1. GNN ずは・GNNの歎史 2. GNN の凊理内容に぀いお (Message Passing Neural Network ) 3. GAT の新芏性
  3. 4 • CNN は 画像分類・Semantic Segmentation・機械翻蚳などのタスクに幅広く適応 − これらのデヌタは Grid 構造ずしおのデヌタ衚珟

    • Grid 構造ずしお扱うこずができないデヌタ − 䟋亀通網・Social Network − Node・Edge 数は䞀定ではない − グラフずしおデヌタ衚珟を獲埗する必芁 → GNN の登堎 背景Grid 構造では扱えない問題をグラフずしお扱う
  4. 5 Graph ML のタスクずしお䞻に3぀ Graph focus Node focus Edge focus

    化合物の安党予枬 所属チヌムの予枬 リンク予枬
  5. 6 GNN の歎史2005幎に登堎・2018幎は倧きく発展 [1] Gori+, 2005 [2] Li+, 2016 [3]

    Bruna+, 2014 [4] Defferrard+, 2016 [5] Kipf+, 2017 [6] Gilmer+, 2017 [7] Monti+, 2017 [8] Hamilton+, 2017 Graph Neural Network [1] 2005 2014 Spectral network [3] 2016 ChebNets [4] Graph Convolution Network [5] 2017 2016 Gated Graph Neural Network [2] Neural Message Passing [6] 2017 MoNet [7] 2018 Graph Attention Network Graph SAGE [8] Spectral Spatial
  6. 7 GNN の歎史GNN の登堎 ( 2005幎 ) [1] Gori+, 2005

    [2] Li+, 2016 [3] Bruna+, 2014 [4] Defferrard+, 2016 [5] Kipf+, 2017 [6] Gilmer+, 2017 [7] Monti+, 2017 [8] Hamilton+, 2017 Graph Neural Network [1] 2005 2014 Spectral network [3] 2016 ChebNets [4] Graph Convolution Network [5] 2017 2016 Gated Graph Neural Network [2] Neural Message Passing [6] 2017 MoNet [7] 2018 Graph Attention Network Graph SAGE [8] Spectral Spatial Graph Neural Network ( Gori+ 2005 ) • 各ノヌドの曎新には自身ず隣接ノヌドを䜿甚 • グラフをニュヌラルネットワヌクずしお扱う
  7. 8 GNN の歎史Graph に CNN を導入 ( 2017幎 ) [1]

    Gori+, 2005 [2] Li+, 2016 [3] Bruna+, 2014 [4] Defferrard+, 2016 [5] Kipf+, 2017 [6] Gilmer+, 2017 [7] Monti+, 2017 [8] Hamilton+, 2017 Graph Neural Network [1] 2005 2014 Spectral network [3] 2016 ChebNets [4] Graph Convolution Network [5] 2017 2016 Gated Graph Neural Network [2] Neural Message Passing [6] 2017 MoNet [7] 2018 Graph Attention Network Graph SAGE [8] Spectral Spatial Graph Convolution Network [ Kipf+, 2017 ]
  8. 9 GNN の歎史Message Passing フレヌムワヌク ( 2017幎 ) [1] Gori+,

    2005 [2] Li+, 2016 [3] Bruna+, 2014 [4] Defferrard+, 2016 [5] Kipf+, 2017 [6] Gilmer+, 2017 [7] Monti+, 2017 [8] Hamilton+, 2017 Graph Neural Network [1] 2005 2014 Spectral network [3] 2016 ChebNets [4] Graph Convolution Network [5] 2017 2016 Gated Graph Neural Network [2] Neural Message Passing [6] 2017 MoNet [7] 2018 Graph Attention Network Graph SAGE [8] Spectral Spatial Neural Message Passing (Gilmer+, 2017 ) • Message Passing ずいうフレヌムワヌクで 蚈算の高速化ず汎甚性を䞡立 − MPNN − Message特城量倉換 − Passing頂点曎新 • 以降の GNN のフレヌムワヌクずしお確立
  9. 10 MPNNの凊理 ( 1/4 )曎新の党䜓像 ( AGGREGATE・UPDATE ) 3 2

    1 5 4 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 3 2 1 5 4 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 ℎ1 𝑡 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝒙𝟏 𝒙𝟐 𝒙𝟑 
 𝐎𝐺𝐺𝑅𝐞𝐺𝐎𝑇𝐞 𝑈𝑃𝐷𝐎𝑇𝐞 ℎ2 𝑡 ℎ3 𝑡 ℎ4 𝑡 ℎ1 𝑡+1
  10. 11 • A set of node features𝐡 = ℎ1 ,

    ℎ2 , 
 , ℎ𝑁 , ℎ𝑖 ∈ ℝ𝐹 • A new set of node features𝐡′ = ℎ1 ′, ℎ2 ′, 
 , ℎ𝑁 ′ , ℎ𝑖 ∈ ℝ𝐹′ • 隣接行列は 自己 Loop を含むものずする MPNNの凊理 ( 2/4 )グラフの初期蚭定 1 1 1 1 0 1 1 1 0 0 1 1 1 0 0 1 0 0 1 1 0 0 0 1 1 ℎ1 ℎ5 
 Features per node 𝐡 隣接行列 (adjacency matrix ) [5,4] [5,5] 3 2 1 5 4
  11. 12 • 孊習可胜な重み行列 ( 𝑀𝑒𝑖𝑔ℎ𝑡 𝑚𝑎𝑡𝑟𝑖𝑥 ) 𝐖 ∈ ℝ𝐹×𝐹′

    • 重み行列 𝐖 をℎ𝑖 ず掛け合わせる (ℎ𝑖 ∗ = 𝐖ℎ𝑖 ) MPNNの凊理 ( 3/4 )重み行列ず掛け合わせる Features per node 𝐡∗ [5,6] ℎ1 ∗ ℎ5 ∗ 
 ℎ1 ℎ5 
 Features per node 𝐡 [5,4]
  12. 13 • 隣接行列からずなりあう Node の特城量 ℎ𝑗 ∗ = 𝐖ℎ𝑗 を加算しお

    node を曎新する • すべおの Node に察しお同様の曎新を行い䞭間局の node 特城量を埗る MPNNの凊理 ( 4/4 )ノヌドの特城量の曎新 ( ℎ1 の堎合) Features per node 𝐡∗ [5,6] ℎ1 ∗ ℎ5 ∗ 
 ℎ𝑖 ′ = σ ෍ 𝑗∈𝑁(𝑖) ℎ𝑗 ∗ = σ ෍ 𝑗∈𝑁(𝑖) 𝐖ℎ𝑗 Features per node 𝐡∗ [5,6] ℎ1 ′ ℎ5 ′ 

  13. 14 • 先ほどの Node の曎新匏 ℎ𝑖 ′ = σ σ

    𝑗∈𝑁(𝑖) ℎ𝑗 ∗ = σ σ 𝑗∈𝑁(𝑖) 𝐖ℎ𝑗 は Edge の重みが 1 • Attention の芁領で Edge に重みを぀けお Node を曎新 − 䞊列凊理が可胜 − Node 間の重芁床を倉えられるこずによる解釈性の向䞊が期埅 GAT の抂芁Edge に重みを぀ける
  14. 15 𝑒𝑖𝑗 = 𝑎 𝐖ℎ𝑖 , 𝐖ℎ𝑗 , Attention 係数

    𝑎ℝ𝐹′ × ℝ𝐹′ → ℝ GAT の手法 ( 1/3 )𝑒𝑖𝑗 の蚈算 3 2 1 5 4 𝒆𝟏𝟐 𝒆𝟏𝟑 𝒆𝟏𝟒 The children play in the park.
  15. 16 𝑒𝑖𝑗 を正芏化 α𝑖𝑗 = softmax 𝑒𝑖𝑗 = exp(𝑒𝑖𝑗) σ

    𝑘∈𝑁(𝑖) exp(𝑒𝑖𝑘) − 𝑎 は 1局の Feedforward Neural Network ( 重みベクトル 𝒂 ∈ ℝ2𝐹′ )ず LeakyReLU からなる α𝑖𝑗 = exp LeakyReLU 𝐚𝑇 𝐖ℎ𝑖 ||𝐖ℎ𝑗 σ 𝑘∈𝑁(𝑖) exp LeakyReLU 𝐚𝑇 𝐖ℎ𝑖 ||𝐖ℎ𝑘 GAT の手法 ( 2/3 ) α𝑖𝑗 の蚈算 𝑒𝑖𝑗 = 𝑎 𝐖ℎ𝑖 , 𝐖ℎ𝑗
  16. 17 • α𝑖𝑗 を甚いお ℎ𝑖 ′ を蚈算する • 䞊匏を Multi-Head-Attention

    に拡匵 − 𝐟 は head 数 − 最終局のみ平均をずる GAT の手法 ( 3/3 ) ℎ𝑖 ′ の蚈算
  17. 18 • Transductive タスク「既知だがラベルが未知のノヌド」に぀いおラベルを予枬する − 「既知」ずは孊習デヌタ䞭にノヌドがあるこず • Inductive タスク「未知のノヌド」に察しおラベルを予枬する −

    ノヌドはすでにグラフ内に远加されたずしお呚蟺ノヌドを埗るこずが可胜 − Inductive タスクのほうが汎甚性胜が求められる 実隓3皮類の Transductive ず1皮類の Inductive で実隓
  18. 20 • GNN においお Edge の情報を Attention の重みずしお衚珟しノヌドを曎新する手法 Graph Attention

    Network ( GAT ) の提案 − 䞊列化凊理が可胜ずなりEdge を含む蚈算速床の䜎䞋を防止 − Node 間の重芁床を倉えられるこずによる解釈性の向䞊が期埅 − 既存手法よりも高いスコアを獲埗 たずめ