최근 많은 모델링 문제에서 모두 GNN 방법을 사용했다는 사실을 발견하고 한 번 공부하다가 아주 좋은 GNN 의 시각적 해석 문장 한 편을 발견하여 번역정리를 여러분과 함께 나누었습니다.
현재 그림 모델의 응용은 매우 광범위하며, 가장 전형적인 것은 소셜네트워크, 단백질 구조 등이다. 최근 점점 더 많은 그래프 알고리즘이 검색 추천, 시계열 등의 문제에도 적용되고 있으며, 모두 큰 성공을 거뒀습니다. 이 글에서는 어떤 수학도 없이 그래픽 신경망을 직관적으로 이해하고 있습니다. (데이비드 아셀, Northern Exposure (미국 TV 드라마), 과학명언)
소셜미디어에서는 사용자를 클러스터링할 때 사용할 수 있고, 각 사용자 follow 와 follow 의 정보를 기반으로 다이어그램을 작성한 다음 각 사용자의 embeddings 정보 클러스터링을 배울 수 있습니다.
노드와 가장자리에 서로 다른 의미를 부여하면 그림이 매우 많은 정보를 얻을 수 있습니다. 예를 들어, 각 노드는 사용자이고, 가장자리는 전화라면 전화 관련 사교를 나타낼 수 있습니다. 노드가 상품이고 가장자리가 사용자의 구매 순서를 나타내는 경우 사용자의 쇼핑 네트워크입니다.
Recurrent 단위, 포함된 벡터 표현 및 순방향 신경망. 모든 노드는 recurrent 단위로 변환되고 모든 가장자리는 순방향 신경망을 형성합니다.
노드와 모서리의 변환이 완료되면 그래프는 노드 간에 메시징을 수행합니다. 이 프로세스는 지정된 참조 노드 주위의 주변 노드에서 가장자리를 향해 메시지를 푸시하는 것을 포함하기 때문에 Neighbourhood Aggregation 이라고도 합니다.
GNNs 의 경우 단일 참조 노드의 경우 인접 노드는 모서리 신경망을 통해 해당 정보 (embeddings) 를 참조 노드의 반복 단위로 전달합니다. 재귀 셀의 새 포함은 현재 embeddings 및 인접 노드 embeddings 의 에지 신경망 출력 합계에 재귀 함수를 적용하여 업데이트됩니다.
현재 각 노드는 자신과 인접 노드에 대한 정보 (피쳐) 에 대해 더 많이 알고 있으므로 전체 그림을 보다 정확하게 표현할 수 있습니다. Pipeline 의 상위 수준에서 더 자세히 처리하거나 단순히 그림을 나타내기 위해 모든 embeddings 를 추가하여 전체 그래픽을 나타내는 벡터를 얻을 수 있습니다.
H 를 사용하는 것이 인접한 행렬을 사용하는 것보다 더 좋은 경우가 많습니다. 이러한 행렬은 그래프의 특성이나 고유한 측면을 나타내지 않습니다. 그래픽 왜곡이 있더라도 노드 사이의 가장자리 연결일 뿐입니다.