http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
장지원(Jiwon Jang),박준형(Junhyung Park),전민혜(Minhye Jeon),서영덕(Young-Duk Seo) 한국정보기술학회 2022 Proceedings of KIIT Conference Vol.2022 No.12
GNN기반 Incremental Learning 과제에서 가장 큰 두 가지 과제는 새로운 데이터가 추가되었을 때 새로운 패턴을 찾는 것이고, 그 와중에 이전 데이터의 패턴을 잃지 않는 것이다. 본 논문에서는 GNN의 Incremental Learning에서 데이터 샘플링을 통해 보다 효율적인 GNN 재학습 방식을 제안한다. 세부적으로 새로운 데이터에 영향을 받은 노드들에 대해 Betweenness Centrality를 통한 Importance Sampling, 영향받지 않은 노드들에 대해선 기존 네트워크에 형성된 클러스터를 활용한 균형 있는 Importance Sampling을 통해 네트워크를 새로운 데이터에 적용하면서도 기존 데이터의 패턴을 잃지 않으려고 한다. Most Importance two aspect of training GNNs through incremental learning are adapting the network to encompass new data while evading catastrophic forgetting. We propose a strategy to sample data nodes so as to efficiently train incrementally. Specifically, we conduct importance sampling on both node groups affected and unaffected by new data. Affected nodes are sampled based on importance measured by Betweenness Centrality, and unaffected nodes are sampled based on importance and balance of features utilizing clusters of previous networks.