はじめに

-
Transformerをベースとしたグラフ学習手法 (NeurIPS 2021)
-
構成要素は三つ
- Centrality Encoding
- Spatial Encoding
- Edge Encoding (in the Attention)
-
特筆すべき点として, この手法はGINやGCN, それからGraphSAGEといったGNN手法を一般化したものとなっているらしい
Do Transformers Really Perform Bad for Graph Representation?
論文メモ
- 構成要素1. Centrality Encoding
- モチベーション
- Node Centrality, つまりノードがどれほど別のノードとつながっているかはノードが如何に重要かを示しており, とても有益となり得るので, Encodeしたい
- 例えばTwitterにおいて, 有名人はフォローが少なくてフォロワーが多い→ノードの次数は直感的にも重要
- どうするの?
- ノードの埋め込み表現
について
- ただし, 入次数と出次数をそれぞれ,
とする - 最初だけ(
)なので計算コストもそれほどかからない は学習可能パラメタとなっていて, Centralityの埋め込みを行う- ただし無向グラフなら,
を一つのパラメタ としても良い
- ノードの埋め込み表現
- モチベーション
- 構成要素2. Spatial Encoding
- モチベーション
- Transformerの強さは受容野の広さだが, 一方でPositional Encodingが必要
- どうにかGlobal-Attentionのまま位置情報を保存する形の写像がほしい
- → GNNは隣接ノードしか見ない(AGGREGATE)なので, GNNよりも広い受容野を獲得できる
- どうするの?
- モチベーション
-
構成要素3. Edge Encoding
-
その他

-
結果
- TokenGT (TokenGT: Pure Transformers are Powerful Graph Learners)と同じデータセットぽい?
- 確かに表現力は上がってそう
-
Ablation
Supplementary Material: https://openreview.net/attachment?id=OeWooOxFwDa&name=supplementary_material