复杂网络表示的原理,算法和应用
一、 引言
圖數(shù)據(jù)在我們的世界中廣泛存在,如社交網(wǎng)絡(luò),知識(shí)圖譜,交通網(wǎng)絡(luò)等。以知識(shí)圖譜為例,它已經(jīng)成為很多智能系統(tǒng)的支柱,如搜索引擎,推薦系統(tǒng)等。知識(shí)圖譜中的一個(gè)核心問(wèn)題是圖結(jié)構(gòu)(包括結(jié)點(diǎn)和邊)的表示,好的知識(shí)表示可以幫助知識(shí)圖譜更加完善以及知識(shí)圖譜上層的應(yīng)用。圖表示的挑戰(zhàn)主要在于圖數(shù)據(jù)規(guī)模的大幅度增長(zhǎng)(如搜索引擎背后的知識(shí)圖譜、大規(guī)模電商知識(shí)圖譜可以達(dá)到 TB 甚至 PB 規(guī)模)以及圖數(shù)據(jù)的復(fù)雜性(結(jié)點(diǎn)和邊的相互作用,結(jié)點(diǎn)屬性,圖的高階特征如子圖等)。本文介紹清華大學(xué) AMiner [1] 團(tuán)隊(duì)近幾年在復(fù)雜網(wǎng)絡(luò)表示方面的工作,以下分為網(wǎng)絡(luò)表示的基本原理,算法和應(yīng)用三方面來(lái)介紹。
原文鏈接:點(diǎn)擊這里
二、 網(wǎng)絡(luò)表示(Network Embedding)的基本原理
一般來(lái)講,我們將圖定義為:$G = {V, E, X}$,其中VV是結(jié)點(diǎn)的結(jié)合,E \subseteq V \times XE?V×X?是圖上邊的集合,X \in \mathbb{R}^{|V|\times d}X∈R∣V∣×d?是每個(gè)結(jié)點(diǎn)的初始語(yǔ)義特征。網(wǎng)絡(luò)表示的目標(biāo)是為圖中的結(jié)點(diǎn)學(xué)習(xí)潛在的表示?Z \in \mathbb{R}^{|V|\times d_z}Z∈R∣V∣×dz?,并且希望ZZ可以包含圖結(jié)構(gòu)的信息(如結(jié)點(diǎn)之間相似度)以及結(jié)點(diǎn)的語(yǔ)義特征。
DeepWalk [2] 和 LINE [3] 是網(wǎng)絡(luò)表示學(xué)習(xí)的兩個(gè)經(jīng)典算法。DeepWalk 的主要思路是在圖上進(jìn)行隨機(jī)路徑采樣,將采樣得到的結(jié)點(diǎn)序列看做自然語(yǔ)言中的句子。之后,利用語(yǔ)言建模中的經(jīng)典方法 SkipGram [4] 方法進(jìn)行優(yōu)化,SkipGram 的思路是用一個(gè)結(jié)點(diǎn)去預(yù)測(cè)同一個(gè)序列中周?chē)慕Y(jié)點(diǎn)。不同的是,LINE 的目標(biāo)是保持圖中結(jié)點(diǎn)之間的“一階”和“二階”相似度。一階相似度是結(jié)點(diǎn)和其直接鄰居之間的相似度。二階相似度可以理解為結(jié)點(diǎn)和它“兩跳”鄰居的相似度。
基于此,項(xiàng)目組提出基于矩陣分解的知識(shí)統(tǒng)一表示學(xué)習(xí)方法NetMF [5],從理論上證明已有的多種網(wǎng)絡(luò)表示學(xué)習(xí)方法(DeepWalk、LINE 等)都可以歸一化到矩陣分解理論框架下,提出了網(wǎng)絡(luò)表示學(xué)習(xí)的新思路。NetMF為基于 SkipGram 和負(fù)采樣的網(wǎng)絡(luò)表示學(xué)習(xí)方法提供了理論基礎(chǔ)。
表1:DeepWalk, LINE, PTE, node2vec 隱式分解或逼近的矩陣
表1展示了幾個(gè)網(wǎng)絡(luò)表示代表性方法 DeepWalk, LINE, PTE, node2vec 所隱式分解或逼近的矩陣。這幾個(gè)方法均是網(wǎng)絡(luò)表示學(xué)習(xí)前期的代表性方法。具體來(lái)說(shuō),NetMF證明了(1)當(dāng)DeepWalk隨機(jī)游走的步長(zhǎng)足夠長(zhǎng)時(shí),它實(shí)質(zhì)上概率收斂到網(wǎng)絡(luò)的拉普拉斯矩陣的低秩表示;(2)LINE理論上可以被看做是DeepWalk的特殊情形,它假設(shè)隨機(jī)游走的窗口大小為1;(3)PTE [16]是LINE的擴(kuò)展,它聯(lián)合分解了多個(gè)網(wǎng)絡(luò)的拉普拉斯矩陣;(4)node2vec [17]是在分解一個(gè)關(guān)于網(wǎng)絡(luò)上二階隨機(jī)游走的平穩(wěn)分布和轉(zhuǎn)移概率矩陣。
同時(shí),NetMF 還提升了網(wǎng)絡(luò)表示的精度,DeepWalk, LINE 等使用10%訓(xùn)練數(shù)據(jù)獲得分類(lèi)的 F1-Score 是12-29%,NetMF 在相同數(shù)據(jù)集上的 F1-Score 是 18-38%。截止目前(2020年5月),NetMF 是數(shù)據(jù)挖掘頂級(jí)會(huì)議WSDM 2018上被引用次數(shù)最多的論文。
為了進(jìn)一步提升 NetMF 算法的可擴(kuò)展性,項(xiàng)目組提出 NetSMF [6] 算法,將網(wǎng)絡(luò)表示學(xué)習(xí)看做稀疏矩陣分解問(wèn)題。NetSMF 的網(wǎng)絡(luò)表示精度和 NetMF 相當(dāng),并且能夠?qū)Υ笠?guī)模網(wǎng)絡(luò)進(jìn)行表示。在比較的算法中,只有 NetSMF 和 LINE 能夠在一天之內(nèi)得到億級(jí)網(wǎng)絡(luò)的結(jié)點(diǎn)表示。
此外,項(xiàng)目組從理論上挖掘了“負(fù)采樣”技術(shù)在網(wǎng)絡(luò)表示學(xué)習(xí)的作用,并提出一個(gè)統(tǒng)一的負(fù)采樣技術(shù) MCNS 來(lái)優(yōu)化各種網(wǎng)絡(luò)表示學(xué)習(xí)算法 [20]。負(fù)采樣技術(shù)的目的是在網(wǎng)絡(luò)上尋找與結(jié)點(diǎn)?vv?不相似的點(diǎn)u'u′。眾多網(wǎng)絡(luò)表示學(xué)習(xí)算法如 DeepWalk 和 LINE 均采用了負(fù)采樣技術(shù),很多負(fù)采樣方法沿用了語(yǔ)言模型 Word2Vec 中的負(fù)采樣方法,使得負(fù)采樣分布和結(jié)點(diǎn)度數(shù)的3/4次成正比。然而,大部分研究關(guān)注于如何進(jìn)行正采樣(尋找與結(jié)點(diǎn)vv相似的點(diǎn)uu),如用隨機(jī)游走,二階相似度,社區(qū)結(jié)構(gòu)來(lái)尋找相似的結(jié)點(diǎn),很少有研究系統(tǒng)性得研究負(fù)采樣技術(shù)對(duì)網(wǎng)絡(luò)表示學(xué)習(xí)的影響。項(xiàng)目組發(fā)現(xiàn),對(duì)于優(yōu)化目標(biāo)函數(shù)和減小方差,負(fù)采樣在理論上和正采樣同樣重要。并且,負(fù)采樣的分布應(yīng)該和正采樣的分布正相關(guān)且呈次線性關(guān)系。基于此理論,MCNS用自對(duì)比(self-constrastive)估計(jì)來(lái)逼近正采樣分布,并且利用Metropolis-Hastings算法加速計(jì)算。
項(xiàng)目組將提出的MCNS算法與不同應(yīng)用場(chǎng)景中的負(fù)采樣方法進(jìn)行比較,包括信息檢索、推薦系統(tǒng)、知識(shí)圖譜補(bǔ)全等8個(gè)負(fù)采樣方法,并且在3個(gè)代表性的下游任務(wù),3種代表性網(wǎng)絡(luò)表示學(xué)習(xí)算法,5個(gè)不同類(lèi)型數(shù)據(jù)集上總計(jì)19種實(shí)驗(yàn)設(shè)計(jì)下進(jìn)行了實(shí)驗(yàn),MCNS 可以穩(wěn)定得到更好的表示用于下游任務(wù)。
?
三、網(wǎng)絡(luò)表示的算法
下面,我們介紹項(xiàng)目組提出的其他網(wǎng)絡(luò)表示學(xué)習(xí)算法,他們分別側(cè)重于網(wǎng)絡(luò)表示學(xué)習(xí)的不同方面。
(一)大規(guī)模網(wǎng)絡(luò)上的快速結(jié)點(diǎn)表示 ProNE [7]。ProNE 借鑒了網(wǎng)絡(luò)表示學(xué)習(xí)可以建模為矩陣分解的思路。傳統(tǒng)的矩陣分解復(fù)雜度是?O(n^3)O(n3),這里n是網(wǎng)絡(luò)中結(jié)點(diǎn)的數(shù)量,這對(duì)于大規(guī)模矩陣分解通常是不可行的。ProNE通過(guò)負(fù)采樣方法構(gòu)造一個(gè)稀疏矩陣進(jìn)行分解,由此避免了直接分解鄰接矩陣的平凡解。具體地,ProNE 巧妙得將稀疏矩陣構(gòu)造為?l=-\sum_{(i,j)\in D} [p_{ij} \ln\sigma(r_i^Tc_j) + \lambda P_{D,j} \ln (-r_i^Tc_j)]l=?∑(i,j)∈D?[pij?lnσ(riT?cj?)+λPD,j?ln(?riT?cj?)],其中?P_{D,j}PD,j??是上下文結(jié)點(diǎn)v_jvj?相關(guān)的負(fù)例,r_i^Tc_jriT?cj?用向量?jī)?nèi)積來(lái)刻畫(huà)結(jié)點(diǎn)之間的相似度。此優(yōu)化框架下的稀疏矩陣分解的復(fù)雜度可達(dá)到?O(|E|)O(∣E∣),即網(wǎng)絡(luò)中邊的數(shù)量級(jí)。
稀疏矩陣分解后得到的結(jié)點(diǎn)表示只捕捉了網(wǎng)絡(luò)中的局部信息。除此之外,ProNE 利用高階 Cheeger 不等式,對(duì)圖的譜空間進(jìn)行調(diào)制,讓初始分解得到的結(jié)點(diǎn)表示在調(diào)制后的譜空間內(nèi)進(jìn)行傳播。從高階 Cheeger 不等式中可以推斷,小的拉普拉斯矩陣的特征值控制著圖被劃分成幾個(gè)大的子圖的劃分效果;大的特征值控制著圖被劃分為許多個(gè)小的子圖的劃分效果,可以理解為局域的聚類(lèi)效果或平滑效果。因此,ProNE 希望通過(guò)控制譜空間的大特征值和小特征值來(lái)控制圖的高階全局以及局域的劃分聚類(lèi)效果。首先,將網(wǎng)絡(luò)的拉普拉斯矩陣進(jìn)行調(diào)制?\tilde{L} = U diag([g(\lambda_1),...,g(\lambda_n)]U^T)L~=Udiag([g(λ1?),...,g(λn?)]UT),這里可以根據(jù)圖的特點(diǎn)采用帶通或低通濾波等。之后在新圖上傳播結(jié)點(diǎn)表示,從而將全局的聚類(lèi)信息或者局域的平滑嵌入到圖表示,提高圖表示的表達(dá)能力,具體的操作為?R_d = D^{-1}A(E_n - \tilde{L})R_dRd?=D?1A(En??L~)Rd?,其中,D^{-1}AD?1A是歸一化的鄰接矩陣,E_nEn?是單位矩陣,R_dRd?是結(jié)點(diǎn)表示矩陣。
ProNE 能夠快速計(jì)算大規(guī)模網(wǎng)絡(luò)中的結(jié)點(diǎn)表示,對(duì)于億級(jí)網(wǎng)絡(luò)結(jié)點(diǎn)表示,單線程的ProNE 比20線程的 LINE 更快(LINE是比較方法中最快的算法)。此外,ProNE 在調(diào)制譜空間中傳播結(jié)點(diǎn)表示的方法也能夠顯著提升其他網(wǎng)絡(luò)表示學(xué)習(xí)算法的精度,如DeepWalk, LINE, Node2vec [8] ,提升的相對(duì)幅度在10%以上。
圖1:ProNE 譜傳播方法可以顯著提升多種網(wǎng)絡(luò)表示學(xué)習(xí)算法
(二)富屬性多重邊的異構(gòu)網(wǎng)絡(luò)表示學(xué)習(xí) GATNE [9] 。很多網(wǎng)絡(luò)表示學(xué)習(xí)方法關(guān)注于單類(lèi)型的結(jié)點(diǎn)和單類(lèi)型的邊,GATNE 考慮了更復(fù)雜場(chǎng)景下的網(wǎng)絡(luò)表示學(xué)習(xí)?,F(xiàn)實(shí)中的網(wǎng)絡(luò)結(jié)點(diǎn)和邊可能有多種類(lèi)型,每個(gè)結(jié)點(diǎn)可能有豐富的屬性。比如,在電商知識(shí)圖譜中,結(jié)點(diǎn)有用戶、物品等不同類(lèi)型,邊有“點(diǎn)擊”、“購(gòu)買(mǎi)”等不同類(lèi)型,商品有價(jià)格,描述,品牌等屬性。GATNE 設(shè)計(jì)了一個(gè)統(tǒng)一的網(wǎng)絡(luò)表示框架,能夠同時(shí)建模了結(jié)點(diǎn)的基本表示(Base Embedding), 結(jié)點(diǎn)的屬性表示,邊的表示。結(jié)點(diǎn)ii關(guān)于邊類(lèi)型rr表示的計(jì)算方式為?v_(i,r)=b_i+α_r M_r^T U_i a_(i,r)v(?i,r)=bi?+αr?MrT?Ui?a(?i,r),其中,b_ibi?是結(jié)點(diǎn)的基本表示(與其邊的類(lèi)型rr無(wú)關(guān)),α_rαr?是超參數(shù),U_iUi?是結(jié)點(diǎn)ii相關(guān)的邊的表示,a_(i,r)a(?i,r)代表了注意力(attention)系數(shù),M_rMr?是訓(xùn)練參數(shù)。
表2:(來(lái)自論文 [9])GATNE與不同類(lèi)型網(wǎng)絡(luò)表示學(xué)習(xí)算法的比較
GATNE 能夠支持對(duì)知識(shí)圖譜中的新結(jié)點(diǎn)進(jìn)行表示學(xué)習(xí)(inductive settings)。此時(shí),新結(jié)點(diǎn)的屬性特征用于生成其表示?v_{i,r} = h_z(x_i)+\alpha_r M_r^T U_ia_{i,r} + \beta D_z^T x_ivi,r?=hz?(xi?)+αr?MrT?Ui?ai,r?+βDzT?xi?,這里,zz表示結(jié)點(diǎn)的類(lèi)型,h_zhz?是一種特征轉(zhuǎn)換函數(shù),D_zDz?是訓(xùn)練參數(shù)。GATNE 的訓(xùn)練方式是基于元路徑的隨機(jī)游走和異構(gòu) SkipGram,例如,采樣的路徑會(huì)根據(jù)預(yù)先設(shè)計(jì)的元路徑(如:用戶-商品-用戶)。隨機(jī)路徑采樣生成的正例,以及在異構(gòu)網(wǎng)絡(luò)中負(fù)采樣得到的負(fù)例相結(jié)合,來(lái)最小化負(fù)對(duì)數(shù)似然。
GATNE在多個(gè)復(fù)雜網(wǎng)絡(luò)數(shù)據(jù)(如亞馬遜、Youtube,阿里巴巴數(shù)據(jù))上進(jìn)行驗(yàn)證,對(duì)生成的結(jié)點(diǎn)表示進(jìn)行鏈接預(yù)測(cè),比已有方法如metapath2vec [18],MNE [19] 等F1值提升6%~28%。此外,GATNE很容易并行化,能夠生成億級(jí)復(fù)雜網(wǎng)絡(luò)的結(jié)點(diǎn)表示。GATNE已經(jīng)被應(yīng)用于阿里巴巴的推薦場(chǎng)景,并且被阿里巴巴圖神經(jīng)網(wǎng)絡(luò)計(jì)算平臺(tái) AliGraph和百度的Paddle Graph Learning (PGL) 平臺(tái)實(shí)現(xiàn)。
(三)可遷移的圖結(jié)構(gòu)表示預(yù)訓(xùn)練方法 GCC [21]。通常的網(wǎng)絡(luò)表示學(xué)習(xí)算法是在一個(gè)圖上進(jìn)行學(xué)習(xí)表示,然后用于與該圖相關(guān)的任務(wù),如結(jié)點(diǎn)分類(lèi),鏈接預(yù)測(cè)等。這樣的話,在一個(gè)圖上學(xué)習(xí)到的知識(shí)難以遷移到別的圖上進(jìn)行表示學(xué)習(xí)。受自然語(yǔ)言處理和計(jì)算機(jī)視覺(jué)領(lǐng)域的自監(jiān)督預(yù)訓(xùn)練范式啟發(fā),項(xiàng)目組提出一個(gè)無(wú)監(jiān)督的網(wǎng)絡(luò)表示學(xué)習(xí)框架,它可以學(xué)習(xí)不同網(wǎng)絡(luò)結(jié)構(gòu)中存在的普遍的網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)規(guī)律,如無(wú)標(biāo)度(scale-free),“小世界”(small world)等規(guī)律。GCC 將預(yù)訓(xùn)練任務(wù)定義為子圖級(jí)別的實(shí)例判別(subgraph-level instance discrimination),然后利用對(duì)比學(xué)習(xí)(contrastive learning)的框架進(jìn)行學(xué)習(xí)。具體來(lái)說(shuō),GCC 中進(jìn)行對(duì)比學(xué)習(xí)的實(shí)例單位是“子圖”,結(jié)點(diǎn)v的子圖是通過(guò)在v的ego network中采樣結(jié)點(diǎn)生成誘導(dǎo)子圖,同一個(gè)結(jié)點(diǎn)出發(fā)采樣多個(gè)的子圖對(duì)是正例,相同圖上的不同結(jié)點(diǎn)或者不同圖上的結(jié)點(diǎn)采樣得到的子圖對(duì)是負(fù)例(如圖2)。GCC 可以使用任何圖編碼器(如GIN)編碼得到表示,對(duì)于訓(xùn)練方法,GCC 嘗試了端對(duì)端訓(xùn)練和動(dòng)量更新兩種方式。
圖2:GCC的訓(xùn)練框架,最左是不同結(jié)點(diǎn)(紅&藍(lán))的ego network,通過(guò)不同結(jié)點(diǎn)采樣出的子圖進(jìn)行對(duì)比學(xué)習(xí)。
項(xiàng)目組將GCC用于3種圖挖掘任務(wù)(結(jié)點(diǎn)分類(lèi)、圖分類(lèi)、相似結(jié)點(diǎn)搜索)和10種圖數(shù)據(jù)(包括學(xué)術(shù)合作網(wǎng)絡(luò)、社交網(wǎng)絡(luò)、交通網(wǎng)絡(luò)等)上,實(shí)驗(yàn)結(jié)果顯示在多種圖上預(yù)訓(xùn)練的GCC模型和在單一圖數(shù)據(jù)上訓(xùn)練得到的表示相比,能達(dá)到相當(dāng)甚至更優(yōu)的效果。
此外,項(xiàng)目組還提出了動(dòng)態(tài)網(wǎng)絡(luò)表示學(xué)習(xí)算法 [10, 11] 以及基于對(duì)抗學(xué)習(xí)的魯棒網(wǎng)絡(luò)表示學(xué)習(xí)算法 [12, 13]等。
?
四、網(wǎng)絡(luò)表示的應(yīng)用
項(xiàng)目組已經(jīng)將不同的網(wǎng)絡(luò)學(xué)習(xí)表示算法部署到多種應(yīng)用中。包括:
學(xué)術(shù)數(shù)據(jù)語(yǔ)義集成。項(xiàng)目組利用網(wǎng)絡(luò)表示學(xué)習(xí)算法進(jìn)行知識(shí)圖譜構(gòu)建,多源數(shù)據(jù)集成 [14],同名作者消歧等 [15],支撐了以知識(shí)和圖神經(jīng)網(wǎng)絡(luò)計(jì)算為中心的科技情報(bào)挖掘系統(tǒng)AMiner,建立了超過(guò)2.7 億論文、1.3億學(xué)者、1.2 億專(zhuān)利的科技知識(shí)圖譜,形成了智慧人才情報(bào)、學(xué)術(shù)搜索與知識(shí)圖譜等系列產(chǎn)品,服務(wù)全球220 個(gè)國(guó)家和地區(qū)1000 余萬(wàn)用戶。此外,知識(shí)圖譜構(gòu)建技術(shù)用于搜狗學(xué)術(shù)搜索,日均服務(wù)搜索超過(guò)3億次。項(xiàng)目組還開(kāi)源了世界最大的開(kāi)放學(xué)術(shù)圖譜Open Academic Graph (OAG)。
圖神經(jīng)網(wǎng)絡(luò)計(jì)算平臺(tái) AliGraph。項(xiàng)目組的算法成功應(yīng)用在阿里巴巴圖神經(jīng)網(wǎng)絡(luò)計(jì)算平臺(tái)AliGraph,月活躍用戶超過(guò)5億,支持百億節(jié)點(diǎn)與萬(wàn)億邊的異構(gòu)圖數(shù)據(jù)訓(xùn)練,獲世界人工智能大會(huì)先鋒獎(jiǎng)。
此外,項(xiàng)目組系列產(chǎn)品為科研主管部門(mén)如科技部、國(guó)家自然基金委等提供學(xué)術(shù)評(píng)價(jià)、智能指派/推薦等知識(shí)服務(wù);為企事業(yè)單位華為、騰訊等提供人才發(fā)現(xiàn)、專(zhuān)家推薦等智能服務(wù),助力企業(yè)產(chǎn)品升級(jí),推動(dòng)企業(yè)科技創(chuàng)新。
?
參考文獻(xiàn)
[1] Tang, Jie, Jing Zhang, Limin Yao, Juanzi Li, Li Zhang, and Zhong Su. "Arnetminer: extraction and mining of academic social networks." In Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 990-998. 2008.
[2] Perozzi, Bryan, Rami Al-Rfou, and Steven Skiena. "Deepwalk: Online learning of social representations." In Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 701-710. 2014.
[3] Tang, Jian, Meng Qu, Mingzhe Wang, Ming Zhang, Jun Yan, and Qiaozhu Mei. "Line: Large-scale information network embedding." In Proceedings of the 24th international conference on world wide web, pp. 1067-1077. 2015.
[4] Mikolov, Tomas, Kai Chen, Greg Corrado, and Jeffrey Dean. "Efficient estimation of word representations in vector space." arXiv preprint arXiv:1301.3781 (2013).
[5] Qiu, Jiezhong, Yuxiao Dong, Hao Ma, Jian Li, Kuansan Wang, and Jie Tang. "Network embedding as matrix factorization: Unifying deepwalk, line, pte, and node2vec." In Proceedings of the Eleventh ACM International Conference on Web Search and Data Mining, pp. 459-467. 2018.
[6] Qiu, Jiezhong, Yuxiao Dong, Hao Ma, Jian Li, Chi Wang, Kuansan Wang, and Jie Tang. "Netsmf: Large-scale network embedding as sparse matrix factorization." In The World Wide Web Conference, pp. 1509-1520. 2019.
[7] Zhang, Jie, Yuxiao Dong, Yan Wang, Jie Tang, and Ming Ding. "ProNE: fast and scalable network representation learning." In Proc. 28th Int. Joint Conf. Artif. Intell., IJCAI, pp. 4278-4284. 2019.
[8] Grover, Aditya, and Jure Leskovec. "node2vec: Scalable feature learning for networks." In Proceedings of the 22nd ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 855-864. 2016.
[9] Cen, Yukuo, Xu Zou, Jianwei Zhang, Hongxia Yang, Jingren Zhou, and Jie Tang. "Representation learning for attributed multiplex heterogeneous network." In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. 1358-1368. 2019.
[10] Han, Yu, Jie Tang, and Qian Chen. "Network embedding under partial monitoring for evolving networks." In Proceedings of the 28th International Joint Conference on Artificial Intelligence, pp. 2463-2469. AAAI Press, 2019.
[11] Zhao, Yifeng, Xiangwei Wang, Hongxia Yang, Le Song, and Jie Tang. "Large scale evolving graphs with burst detection." In 28th International Joint Conference on Artificial Intelligence (IJCAI). 2019.
[12] Ding, Ming, Jie Tang, and Jie Zhang. "Semi-supervised learning on graphs with generative adversarial nets." In Proceedings of the 27th ACM International Conference on Information and Knowledge Management, pp. 913-922. 2018.
[13] Feng, Fuli, Xiangnan He, Jie Tang, and Tat-Seng Chua. "Graph adversarial training: Dynamically regularizing based on graph structure." IEEE Transactions on Knowledge and Data Engineering (2019).
[14] Zhang, Fanjin, Xiao Liu, Jie Tang, Yuxiao Dong, Peiran Yao, Jie Zhang, Xiaotao Gu et al. "Oag: Toward linking large-scale heterogeneous entity graphs." In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. 2585-2595. 2019.
[15] Zhang, Yutao, Fanjin Zhang, Peiran Yao, and Jie Tang. "Name Disambiguation in AMiner: Clustering, Maintenance, and Human in the Loop." In Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. 1002-1011. 2018.
[16] Tang, Jian, Meng Qu, and Qiaozhu Mei. "Pte: Predictive text embedding through large-scale heterogeneous text networks." In Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 1165-1174. 2015.
[17] Grover, Aditya, and Jure Leskovec. "node2vec: Scalable feature learning for networks." In Proceedings of the 22nd ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 855-864. 2016.
[18] Dong, Yuxiao, Nitesh V. Chawla, and Ananthram Swami. "metapath2vec: Scalable representation learning for heterogeneous networks." In Proceedings of the 23rd ACM SIGKDD international conference on knowledge discovery and data mining, pp. 135-144. 2017.
[19] Zhang, Hongming, Liwei Qiu, Lingling Yi, and Yangqiu Song. "Scalable Multiplex Network Embedding." In IJCAI, vol. 18, pp. 3082-3088. 2018.
[20] Yang, Zhen, Ming Ding, Chang Zhou, Hongxia Yang, Jingren Zhou, and Jie Tang. Understanding Negative Sampling in Graph Representation Learning. In Proceedings of the Twenty-Sixth ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD'20).
[21] Qiu, Jiezhong, Qibin Chen, Yuxiao Dong, Jing Zhang, Hongxia Yang, Ming Ding, Kuansan Wang, and Jie Tang. Graph Contrastive Coding for Structural Graph Representation Pre-Training. In Proceedings of the Twenty-Sixth ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD'20).
總結(jié)
以上是生活随笔為你收集整理的复杂网络表示的原理,算法和应用的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 写那么多年Java,还不知道啥是Java
- 下一篇: 赛题解析 | 初赛赛道一:实现一个分布式