Paper: https://arxiv.org/pdf/1911.04965.pdf
PR113 Facebook group: https://www.facebook.com/groups/565858127904979
1. Graph에서 node classification을 하고 싶은데, Bayesian GCN framework이 최근에 나오고 있음
- 기존 GNN들은 uncertainty in graph structure를 잘 고려하지 않거나, partially 해결함
- Bayesian 관점에서는, observed graph structure 또한 sampling된 결과라고 생각함
- Observed graph 정보를 이용해서 비슷한 graph를 sampling할 수 있을 것임
- 그런데 이전 BGCN model은 새로 sampling된 graph와 observed graph 내 node feature, label을 고려하지 않았다고 함
- 이걸 하면서, graph grow 대신 copy를 해서 해결해보자!
2. Node copy: 어떤 node는 observed graph에서 그대로 가져오고, 어떤 node는 연결된 edge에 변화를 줄 것임
- GCN 등의 base classifier를 통해 먼저 node별 predicted label을 구함
- 일정 확률로 sampling된 node들에 대해서는 same predicted label인 node와 확률적으로 edge를 만드는 것 같음(eq. 4)
- 이런 식으로 sampling된 graph는 node와 feature는 그대로 둔 채 일부 node의 edge 관계가 바뀌게 됨
- Bayesian GCN 학습 시 given graph, node feature, label을 이용해서 학습해야 하는데,
- 현재 여러 개의 비슷한 graph를 sampling 해 둠
- Marginalization을 통해 sampled graph, weight를 묶을 수 있지만, analytically tractable하지 않음(eq. 6)
- Monte Carlo Approximation(eq. 7)을 통해 학습할 수 있음
- Observed graph 내 node feature가 관여됨(다른 model은 어떻게 했길래 이걸 무시했다고 태클이 들어왔지?)
- 다른 BGCN 모뎅(AAAI'19)https://arxiv.org/abs/1811.11103
3. Baseline model에 대한 공부를 하지는 못했지만, ChebyNet, GCN, GAT, 기존 BGCN 대비 비슷하거나 더 좋은 성능을 보임
- 기존 model이 사용하던 parameter를 inference하는 것보다 node copying 방법을 쓰는 것이 훨씬 efficient(time complexity)
- Base classifier 성능이 좋다면 observed graph와 sampled graph 간 similarity가 꽤 높음