Knowledge Graph Alignment Network with Gated Multi-Hop Neighborhood Aggregation-学习笔记
在圖1中,美國是Wikidata中科比·布萊恩特的一跳(直接)鄰居。 但是在DBpedia中,它是兩跳鄰居。
在AliNet中,通過門控機制通過在k跳內對其鄰域信息進行控制的聚合來學習實體表示。 在不失一般性的前提下,以下我們展示了匯總一跳和兩跳鄰域信息(k = 2)的情況。 網絡結構如圖3所示。請注意,AliNet也可以擴展到更多的躍點。
具體來說,每個AliNet層都具有多種功能,可在多個躍點內聚合鄰域信息。 為了減少噪聲信息,我們進一步采用了一種針對遠距離鄰域聚集的注意機制,以端到端的方式找出重要的鄰居。 最后,我們使用門控機制來組合多個聚合函數的輸出表示,以獲取當前層中的隱藏表示。 我們還設計了一種關系損失來細化實體表示,并使AliNet能夠捕獲某些特殊結構,例如三角形關系結構。 我們對燒蝕進行了詳盡的研究,并對五個實體對齊數據集進行了詳細的分析,證明了AliNet的有效性及其各項技術貢獻。
其中N1(·)表示給定實體的一跳鄰居集,W(l)是第l層的權重矩陣,ci是歸一化常數。σ(·)是一種激活功能。Thevanilla GCN將節點編碼為其鄰居和最后一層自身表示的平均池。輸入到第一層的輸入向量表示為h(0)。
其中,α(l)ij是實體i的可學習注意權重,其鄰居j.W(l)2是權重矩陣。下一小節將介紹注意力權重的計算。
其中g(h(l)i,2)=σ(Mh(l)i,2+b)作為門來控制單跳和雙跳鄰域的組合。M和b分別是權重矩陣和偏差向量。
實體中距離較遠的鄰居的數量可以比其單跳鄰居的數量成倍增長。 直覺上并非所有遠鄰都對中央實體的特征有所貢獻。 因此,對于兩跳鄰域聚合,計算實體之間的注意權重以突出顯示有用的鄰居。
形式上,第l層的注意權重c(l)i和j計算如下:
其中,A?是通過隨機替換兩個預對齊實體之一生成的一組負樣本。 || ·|| 表示L2向量范數。 [·] + = max(0,·)期望負樣本的距離大于邊λ,即||hi?? hj? || >λ,α1是用于平衡的超參數。
每層的表示都有助于傳播對齊信息。 因此,使用所有圖層的隱藏表示。
其中⊕表示級聯,而norm(·)是L2歸一化,用于減少人為增加矢量范數的瑣碎優化過程(Bordes等,2013)。
借鑒了TransE的翻譯假設。為了避免參數的開銷,不引入其他特定于關系的嵌入。 r的表示形式(表示為r)可以通過其相關實體嵌入進行檢索:
其中Tr是關系r的對象-對象實體對。 然后,將以下關系損失最小化以進行優化:
其中R是兩個KG中總關系的集合。
AliNet的最終目標是合并對齊損失和關系損失,旨在將關系語義注入到保留的圖結構中,其中α2是權重這兩個損失的超參數。使用Adam優化器優化目標。
提出的門控多跳鄰居聚合以端到端的方式擴展了實體的直接鄰居。
AliNet (w/o rel. loss)不優化關系損失的AliNet, AliNet (w/o rel. loss & augment.)不采用關系損失和鄰域擴充的AliNet
DBP15K w.r.t.聚合策略的結果,第一個稱為AliNet(mix),它借鑒了MixHop的想法(Abu-El-Haija等人,2019年),該想法在通用圖中具有類似的節點分類動機。它以兩跳鄰居為一跳,并使用GCN層直接聚集這種混合的鄰居信息。第二個,稱為AliNet(加),用加法運算符代替門控機制。在最后一個變體AliNet(門)中,我們用GAT取代了建議的注意力機制(Velickovic等人2018)。
具有2層的AliNet在所有三個指標中均實現了最佳性能。
這表明基于GNN的模型相對容易找到具有較大的一跳鄰居的對等實體。 AliNet的OC值小于GCN的OC值。 這表明AliNet可以有效地對齊一跳鄰居中重疊較小的實體。
合并后的表示最終勝過了特定于層的表示。
?
總結
以上是生活随笔為你收集整理的Knowledge Graph Alignment Network with Gated Multi-Hop Neighborhood Aggregation-学习笔记的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: CentOS7安装调试Mysql数据库的
- 下一篇: 帝国CMS自动截取简介出现乱码的解决方法