论文小综 | 文档级关系抽取方法(上)
本文作者:
陳想,浙江大學(xué)在讀博士,研究方向?yàn)樽匀徽Z言處理
張寧豫,浙江大學(xué)助理研究員,研究方向?yàn)樽匀徽Z言處理、知識表示與推理
1. 前言
關(guān)系抽取(Relation Extraction, RE)是從純文本中提取未知關(guān)系事實(shí),是自然語言處理領(lǐng)域非常重要的一項(xiàng)任務(wù)。過去的關(guān)系抽取方法主要將注意力集中于抽取單個(gè)實(shí)體對在某個(gè)句子內(nèi)反映的關(guān)系,然而單句關(guān)系抽取在實(shí)踐中受到不可避免的限制:在真實(shí)場景如醫(yī)療、金融文檔中,有許多關(guān)系事實(shí)是蘊(yùn)含在文檔中不同句子的實(shí)體對中的,且文檔中的多個(gè)實(shí)體之間,往往存在復(fù)雜的相互關(guān)系。如下圖所示:
圖中包括了文章中的三個(gè)關(guān)系事實(shí)(從文檔標(biāo)注的諸多關(guān)系事實(shí)中采樣得到),其中涉及這些關(guān)系事實(shí)的命名實(shí)體用彩色著色,其它命名實(shí)體用下劃線標(biāo)出。與句子級相比,文檔級關(guān)系抽取中的文本要長得多,并且包含更多的實(shí)體, 這使得文檔級關(guān)系抽取更加困難。例如,關(guān)系事實(shí)(Baltimore,country,U.S.)和(Eldersburg,country,U.S.)中的相關(guān)實(shí)體并沒有出現(xiàn)在同一個(gè)句子中并且需要長距離依賴,除此之外, 識別這兩個(gè)關(guān)系實(shí)例還需要邏輯推理, 由Eldersburg坐落于Maryland,而Maryland屬于U.S.,可以推理出Eldersburg屬于U.S.。該過程需要對文檔中的多個(gè)句子進(jìn)行閱讀和推理,這顯然超出了句子級關(guān)系抽取方法的能力范圍。根據(jù)從維基百科采樣的人工標(biāo)注數(shù)據(jù)的統(tǒng)計(jì)表明,至少40%的實(shí)體關(guān)系事實(shí)只能從多個(gè)句子聯(lián)合獲取。因此,有必要將關(guān)系抽取從句子級別推進(jìn)到文檔級別。
文檔級關(guān)系抽取主要面臨以下三個(gè)挑戰(zhàn):
1. 相同關(guān)系會出現(xiàn)在多個(gè)句子。在文檔級關(guān)系抽取中,單一關(guān)系可能出現(xiàn)在多個(gè)輸入的句子中,因此模型需要依賴多個(gè)句子進(jìn)行關(guān)系推斷。
2. 相同實(shí)體會具有多個(gè)指稱。在復(fù)雜的文檔中,同一個(gè)實(shí)體具有各種各樣的指稱,因此模型需要聚合不同的指稱學(xué)習(xí)實(shí)體表示。
3. 不同的實(shí)體之間的關(guān)系需要邏輯推理。文檔包含多個(gè)實(shí)體關(guān)系三元組,不同的實(shí)體關(guān)系三元組之間存在邏輯關(guān)聯(lián),因此模型需要具備一定的邏輯推理能力。
2. 文檔級關(guān)系抽取數(shù)據(jù)集
2.1 DocRED
2019年的ACL上清華大學(xué)劉知遠(yuǎn)團(tuán)隊(duì)提出了一個(gè)關(guān)系抽取數(shù)據(jù)集DocRED[1],為文檔級關(guān)系抽取的研究提供了一個(gè)非常好的標(biāo)注數(shù)據(jù)集。DocRED包含對超過5000篇Wikipedia文章的標(biāo)注,包括96種關(guān)系類型、143,375個(gè)實(shí)體和56,354個(gè)關(guān)系事實(shí),這在規(guī)模上超越了以往的同類精標(biāo)注數(shù)據(jù)集。與傳統(tǒng)的基于單句的關(guān)系抽取數(shù)據(jù)集相比,DocRED中超過40%的關(guān)系事實(shí)只能從多個(gè)句子中聯(lián)合抽取,因此需要模型具備較強(qiáng)的獲取和綜合文章中信息的能力,尤其是抽取跨句關(guān)系的能力。DocRED還有一個(gè)在線的Leaderboard https://competitions.codalab.org/competitions/20717#results
2.2 CDR
CDR是生物醫(yī)學(xué)領(lǐng)域的人類標(biāo)注的化學(xué)疾病關(guān)系抽取數(shù)據(jù)集,由500份文檔組成,該數(shù)據(jù)集的任務(wù)是預(yù)測化學(xué)和疾病概念之間的二元相互作用關(guān)系。
2.3 GDA
GDA是生物醫(yī)學(xué)領(lǐng)域的一個(gè)大規(guī)模數(shù)據(jù)集,它包含29192篇文檔以供訓(xùn)練,其任務(wù)是預(yù)測基因和疾病概念之間的二元相互作用。
3. 文檔級關(guān)系抽取方法
文檔級關(guān)系抽取總體可以分為兩類方法:基于序列的方法和基于文檔圖的方法。基于序列的方法主要直接使用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)文檔中實(shí)體的表征,并對所有候選實(shí)體對進(jìn)行分類,代表論文有[1-13];基于文檔圖的方法則通過實(shí)體及其指稱構(gòu)建文檔圖,并通過圖傳播的方式顯式學(xué)習(xí)實(shí)體與實(shí)體之間的關(guān)聯(lián),代表的論文有[14-22]。基于序列的方法模型相對簡單,便于實(shí)際落地應(yīng)用。基于文檔圖的方法對需要復(fù)雜邏輯推理的樣本具有一定的優(yōu)勢。下面,我們介紹5篇文檔級關(guān)系抽取的代表性論文。
其中基于文檔圖的方法我們在本次推文中介紹,基于序列的方法我們將在下一次推文介紹。
3.1 基于文檔圖的方法
基于圖的模型主要利用詞或者實(shí)體等構(gòu)建圖節(jié)點(diǎn),通過學(xué)習(xí)文檔的潛在圖結(jié)構(gòu)來構(gòu)造文檔圖,并使用圖神經(jīng)網(wǎng)絡(luò)進(jìn)行推理。這里我們主要介紹以下3篇代表性的論文。
Connecting the Dots: Document-level Neural Relation Extraction with Edge-oriented Graphs
發(fā)表會議:EMNLP 2019
論文鏈接:
https://www.aclweb.org/anthology/D19-1498/
Motivation
這篇paper[14]提出的模型的動(dòng)機(jī)基于以下幾個(gè)發(fā)現(xiàn):
1. 之前很多利用圖網(wǎng)絡(luò)的方法,只關(guān)注node而沒有關(guān)心node之間edge的表達(dá), 然而作者發(fā)現(xiàn)文檔級別的圖具有豐富的層次化的edge和node,可以在不同種類node之間,建立不同類型的edge來決定信息流入node的多少,來更好的擬合文檔之間異構(gòu)的交互關(guān)系。
2. 每一個(gè)target entity的mentions對于entity之間的relation是非常重要的。
Model
EoG模型認(rèn)為不同的node根據(jù)不同的性質(zhì)生成不同種類的edge,但是采用相同的啟發(fā)式規(guī)則歸納到相同的表達(dá)空間當(dāng)中,從而不斷更新node表達(dá)。其主要分為四部分:Sentence Encoding Layer、Graph Construction、Inference Layer、Classification Layer。
1. Sentence Encoding Layer:doucment中的每一個(gè)sentence的word都被編碼為一個(gè)vector,實(shí)際上,這樣得到的是4維的張量[batch_size,nums_seqs,seq_length,embedding_dim],然后將其把每個(gè)句子都放入BiLSTM當(dāng)中生成新的隱表示狀態(tài),得到contxtual representation。
2. Graph Construction:分為node construction與edge construction。
node construction:在EoG模型中,有以下三種node:
mention node:是所有entity的mentions的集合。每一個(gè)mention node的representation是此mention的所有word embedding的平均值
entity node:是所有entity的集合,每一個(gè)entity node的representation是該entity所有的mentions的平均值
sentence node:?是所有sentence的集合,每一個(gè)sentence node是該sentence中所有word embedding的平均值
edge construction:在EoG模型中,有以下五種edge:
mention-mention(MM):作者是連接兩個(gè)在同一個(gè)sentence中的兩個(gè)mention,并且其表示是concat這兩個(gè)mention本身的representation+context+兩個(gè)mention的距離
mention-entity(ME):連接所有的mention與其對應(yīng)的entity
mention-sentence(MS):將mention與此mention所在的sentence node進(jìn)行連接
entity-sentence(ES):如果一個(gè)sentence中至少存在一個(gè)entity的mention,那么我們將setence node與entity node進(jìn)行連接
sentence-sentence(SS):將所有的sentence node進(jìn)行連接,以獲得non-local information
基于上述建立的多種類型的edge和node關(guān)系,作者將異構(gòu)的edge統(tǒng)一到相同的表達(dá)中,把不同edge的類型根據(jù)不同的矩陣轉(zhuǎn)換映射到相同的空間當(dāng)中來進(jìn)行后續(xù)的推導(dǎo)。
3. Inference Layer:
本文中由于沒有直接的EE edge,所以需要得到entity之間的唯一路徑的表示來產(chǎn)生EE edge的Representation,這里使用了two-step inference mechanism來實(shí)現(xiàn)這一點(diǎn)。
The first step:利用中間節(jié)點(diǎn)??在兩個(gè)節(jié)點(diǎn)??和????之間產(chǎn)生一條路徑,如下:
The second step:如果??和??節(jié)點(diǎn)之間的原本就存在edge,將原始的edge與所有新產(chǎn)生的edge的信息進(jìn)行聚合,其信息融合方式如下(???是一個(gè)對于遠(yuǎn)近關(guān)系控制的超參數(shù),越大表示越對直接連接注意)
重復(fù)上述兩步N次,我們就可以得到比較充分混合的EE edge。實(shí)際上,這一步就是為了解決logical ?reasoning。
4. Classification Layer:
這里使用softmax進(jìn)行分類,因?yàn)閷?shí)驗(yàn)所使用的兩個(gè)數(shù)據(jù)集其實(shí)都是每一個(gè)entity pair都只有一個(gè)Relation,具體公式如下:
Experiment
數(shù)據(jù)集:CDR、GDA
實(shí)驗(yàn)結(jié)果:
作者在ablation study部分探索了不同節(jié)點(diǎn)之間信息交互方式對信息抽取的影響,其對EoG(full)、EoG(NoInf)、EoG(Sent)?三個(gè)變體模型在不同長度的entity pair進(jìn)行實(shí)驗(yàn):
從這張圖我們可以看出:在intra-sentence當(dāng)中,EoG(full)提供的推理未能達(dá)到很好的效果。然而長句子建模的效果,尤其是當(dāng)entity pair之間相差4句以上時(shí)的效果要遠(yuǎn)好于EoG(Sent),這證明了EoG(Sent)在建模的時(shí)候可能忽略了一些重要的節(jié)點(diǎn)之間交互信息,那么能否讓模型自動(dòng)選擇哪些節(jié)點(diǎn)參與交互,以及參與交互的權(quán)重是多少呢?(在LSR就是這么做的)。除此之外,作者還對不同的component進(jìn)行了消融實(shí)驗(yàn),文章利用控制變量法,去除不同的邊來觀察不同邊的產(chǎn)生的影響如下:
從圖中結(jié)果可以看到,去掉SS對模型的結(jié)果影響很大,這這說明對于document-level RE,提取inter-sentence之間的交互信息是非常重要的,另外,盡管在本模型中去掉MM對結(jié)果影響最小,共指信息建立的MM之間的關(guān)系并沒有給模型帶來一個(gè)significant improvement,但我認(rèn)為共指信息MM的確對于entity pair的relation identification共指信息的確有非常重要的作用,只是EoG里面構(gòu)造MM的交互方式不夠有效,之后的GAIN模型完善了MM的構(gòu)建方式并獲得了巨大提升。
Reasoning with Latent Structure Refinement for Document-Level Relation Extraction
發(fā)表會議:ACL 2020
論文鏈接:
https://www.aclweb.org/anthology/2020.acl-main.141.pdf
Motivation
LSR[15]模型是EoG模型的改良,針對的問題就是:在EoG模型的消融實(shí)驗(yàn)中,發(fā)現(xiàn)EoG(full)在句子間距離長度大于4時(shí)的效果要比原始的EoG模型要好,那么基于這樣一個(gè)發(fā)現(xiàn)自然會想到在full的情況下,是否可以讓模型自動(dòng)選擇哪些邊重要,那些不重要呢?
對于document當(dāng)中復(fù)雜的交互方式,對文檔中的node全連接會引進(jìn)大量冗余信息,若是對全連接的edge按照硬規(guī)則進(jìn)行剪枝又可能丟失重要信息,本文不采用硬規(guī)則編碼node與node之間的連接,而是通過一個(gè)鄰居節(jié)點(diǎn)的隱狀態(tài)來自動(dòng)學(xué)習(xí)知識,在一個(gè)全連接的狀態(tài)下自動(dòng)進(jìn)行學(xué)習(xí)來捕獲更多的非鄰居的信息。
Model
LSR模型分為三部分:Node Constructor、Dynamic Reasoner、Classifer。
1. Node Constructor:這一部分如下如所示分為兩小部分:context encoding與node extraction,主要就是對document中的所有word進(jìn)行編碼,并得到graph所有類型的node的representation。
context encoding:對于給定的document,LSR是將doc中的sentence逐條輸入到encoder中(BILSTM/BERT etc),然后將每個(gè)sentence輸出的embedding拼接得到整個(gè)doc的contextual representation。
node extraction:在LSR中,有三種node:mention node、entity node以及meta dependancy path node。mention node表示的是一個(gè)sentence中entity的所有的mention,其表示是該mention中的所有word的representation的平均;entity node指的是entity node,其表示是所有mention node的representation的平均;MDP表示一個(gè)句子中所有mention的最短依賴路徑集。
LSR與EoG模型不同的地方之一在于:mention node與entity node一樣的,但是LSR沒有sentence node,并且使用了MDP node來代替,作者認(rèn)為MDP node能夠過濾掉無關(guān)信息。
2. Dynamic Reasoner:主要分為兩部分:structure induction與multi-hop reasioning。LSR可以重復(fù)多次dynamic reasoner模塊,從而得到更加豐富的node representation。
structure induction:這一部分主要是用來學(xué)習(xí)上述構(gòu)建的文檔圖的結(jié)構(gòu),根據(jù)已知的三種節(jié)點(diǎn)信息來尋找節(jié)點(diǎn)之間的交互強(qiáng)度,得到文檔圖的鄰接矩陣,從而以便使用GCN來進(jìn)行aggregate。公式如下
其中表示的是文檔圖的鄰接矩陣,這里使用了structure attention network以及矩陣樹原理的思想。
multi-hop reasioning:在得到鄰接矩陣之后,LSR便根據(jù)之前生成的鄰接矩陣信息,采用DenseGCN的方式對graph進(jìn)行aggregate以構(gòu)造深層次的non-local信息。?
3. Classifier:根據(jù)最后生成的表達(dá)做一個(gè)Bilinear算子直接對entity pair進(jìn)行關(guān)系分類,使用sigmoid函數(shù)。
Experiment
數(shù)據(jù)集:DocRED、CDR、GDA
實(shí)驗(yàn)結(jié)果:
通過上面結(jié)果可以看出LSR 在DocRED數(shù)據(jù)集上效果提升顯著,而從其在CDR與GDA數(shù)據(jù)集上的結(jié)果來看,LSR在沒有MDP節(jié)點(diǎn)的情況下取得了SOTA,說明MDP的作用不大。
總的來說,LSR模型利用矩陣樹原理對異質(zhì)網(wǎng)絡(luò)利用attention的交互方式來構(gòu)建相同的表達(dá)形式,并通過structure induce來迭代更新矩陣, 這種思想跟前兩年的AGGCN有點(diǎn)相像,其關(guān)鍵在于如何構(gòu)造一個(gè)概率矩陣控制信息轉(zhuǎn)移的情況。
Double Graph Based Reasoning for Document-level Relation Extraction
發(fā)表會議:EMNLP 2020
論文鏈接:
https://www.aclweb.org/anthology/2020.emnlp-main.127/
Motivation
這篇paper[16]也是繼承EoG模型,主要應(yīng)對文檔級別的關(guān)系抽取提出的三個(gè)主要挑戰(zhàn):1. 一個(gè)relation的subject與object可能位于不同的sentence,需要考慮多個(gè)sentence才能判斷一對實(shí)體的relation;2. 同一個(gè)entity可能會出現(xiàn)在不同的sentence當(dāng)中,因此需要利用更多的上下文信息,從而更好的表示entity;3. 很多relation需要logical reasoning才能得到。為此提出了GAIN模型。
Model
文章提出了一種具有雙圖特征的圖聚合推理網(wǎng)絡(luò)(GAIN)。GAIN首先構(gòu)建了一個(gè)異構(gòu)的提及圖(hMG)來建模文檔中不同提及(mention)之間的復(fù)雜交互。同時(shí)還構(gòu)造了實(shí)體級圖(EG),并在此基礎(chǔ)上提出了一種新的路徑推理機(jī)制來推斷實(shí)體之間的關(guān)系。在公共數(shù)據(jù)集DocRED上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明GAIN顯著優(yōu)于之前的技術(shù),比之前的SOTA模型LSR-BERT在F1上高出2.22。
GAIN模型分為四部分:encoding module、ention-level graph aggregation module、entity-level graph aggregation module、classification module。
1. Encoding Module:這一部分主要是將document中的word經(jīng)過編碼,得到contextual representation。給定有n個(gè)token的document,然后將word embedding與實(shí)體類別embedding以及共指embedding進(jìn)行拼接,得到final word embedding,然后使用編碼器(BISLTM/BERT etc)編碼: 得到這一層的輸出:?
2. Mention-level Graph Aggregation Module:這個(gè)graph的構(gòu)建主要是對mention之間的關(guān)系進(jìn)行建模。為了建模文檔級別的信息和不同句子中指稱之間的相互作用,GAIN構(gòu)建了異構(gòu)的指稱圖(hMG),hMG中包含兩類節(jié)點(diǎn):
Mention node:不同句子中同一個(gè)實(shí)體的mention應(yīng)該有不同的表示
Document node:是一個(gè)虛擬節(jié)點(diǎn),主要是為了建模整個(gè)文檔的信息hMG中包含三類邊:
Intra-Entity Edge:連接屬于同一個(gè)實(shí)體的不同mention節(jié)點(diǎn),用來建模同一個(gè)實(shí)體的不同指稱之間的關(guān)系
Inter-Entity Edge:連接在同一個(gè)句子中出現(xiàn)的不同實(shí)體的mention節(jié)點(diǎn),用來建模不同實(shí)體之間的關(guān)系
Document Edge:連接文檔節(jié)點(diǎn)與所有mention節(jié)點(diǎn)。任意兩個(gè)mention節(jié)點(diǎn)通過document節(jié)點(diǎn)相連,解決了長距離依賴的問題
構(gòu)建好graph之后,GAIN模型使用圖卷積網(wǎng)絡(luò)(GCN)對節(jié)點(diǎn)特征進(jìn)行提取,公式如下所示:
其中,不同類型節(jié)點(diǎn)使用不同的權(quán)重矩陣進(jìn)行計(jì)算,最終的節(jié)點(diǎn)表示為GCN各層結(jié)果的拼接:
3. Entity-level Graph Inference Module:這一步就是進(jìn)行inference,得到entity-entity的表示,用于最終的分類,所以path reasoning mechanism很重要。在entity-level graph中,我們將同一個(gè)entity的所有mention的表示的平均作為此entity的表示,entity node之間的邊表示由entity節(jié)點(diǎn)計(jì)算得到:
對于給定的兩個(gè)實(shí)體節(jié)點(diǎn)??,??,只考慮長度為2且經(jīng)過實(shí)體??的路徑,其中第?
?條路徑的表示為:?
上述表示可以很容易擴(kuò)展到長度為k的路徑。entity pair之間的path會有多個(gè)并非所有路徑都是有效的證據(jù),因此作者加入了注意力機(jī)制,顯式地對路徑進(jìn)行編碼是對推理證據(jù)進(jìn)行建模,從而使模型更好地進(jìn)行關(guān)系推理。?
4. Classification Module:對每個(gè)enity pair?
?,作者使用了豐富的特征對其表示:?
其中,???就是document node,由于同一個(gè)實(shí)體對可能存在多種關(guān)系,因此文檔級關(guān)系抽取是個(gè)多標(biāo)簽分類任務(wù),對每一個(gè)關(guān)系?
?, 最終的損失函數(shù)為二分類交叉熵?fù)p失,其后驗(yàn)概率分布和損失函數(shù)分別為:?
Experiment
數(shù)據(jù)集:DocRED
實(shí)驗(yàn)結(jié)果:
實(shí)驗(yàn)結(jié)果顯示,在不同的詞向量初始化設(shè)置下,作者提出的GAIN均達(dá)到了SOTA,并且相較于GloVe GAIN在使用BERT預(yù)訓(xùn)練模型的條件下性能提升更大。為了驗(yàn)證GAIN各個(gè)模塊的有效性,進(jìn)行了消融實(shí)驗(yàn)。?作者首先去除了hMG,即只使用初始的mention節(jié)點(diǎn)表示,發(fā)現(xiàn)結(jié)果大幅下降。作者認(rèn)為這說明hMG很好的建模了不同mention之間的關(guān)系以及文檔級別的特征。
然后作者去除了推理模塊,即不使用路徑表示而只使用頭尾實(shí)體的節(jié)點(diǎn)表示進(jìn)行分類,結(jié)果也大幅下降。作者認(rèn)為這說明顯式地對推理路徑進(jìn)行建模可以提高文檔級關(guān)系抽取的性能。
最后作者去除了hMG中的文檔節(jié)點(diǎn)表示,結(jié)果大幅下降。作者認(rèn)為這說明文檔節(jié)點(diǎn)很好的匯聚了文檔級的信息,并且減少了長距離依賴的負(fù)面作用。
基于序列的方法我們將在下一次推文介紹,敬請關(guān)注我們的公眾號,謝謝!
參考文獻(xiàn)
[1] Yao etal., DocRED: A large-scale document-level relation extraction dataset, ACL2019
[2]?Zhou etal., Document-Level Relation Extraction with Adaptive Thresholding and Localized Context Pooling, AAAI2021
[3] Xu etal., Entity Structure Within and Throughout: Modeling Mention Dependencies forDocument-Level Relation Extraction, AAAI2021
[4] Qin etal., ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning
[5] Huang etal., Entity and Evidence Guided Relation Extraction for DocRED
[6] Xiao etal., Denoising Relation Extraction from Document-level Distant Supervision, EMNLP2020
[7] Ye etal., Coreferential Reasoning Learning for Language Representation, EMNLP2020
[8] Wang., Fine-tune BERT for DOCRED with Two-step Process
[9] Tang etal., Hin: Hierarchical Inference Network for Document-level Relation Extraction, PAKDD2020
[10] Jia etal., Document-level N-ary Relation Extraction with Multiscale Representation Learning, NAACL2019
[11] Eberts etal., An End-to-end Model for Entity-level Relation Extraction using Multi-instance Learning
[12] Eyal etal., Bootstrapping Relation Extractors using Syntactic Search by Examples
[13] Li etal., Multi-view Inference for Relation Extraction with Uncertain Knowledge, AAAI2021
[14]?Christopoulou etal., Connecting the Dots: Document-level Neural Relation Extraction with Edge-oriented Graphs, EMNLP2019
[15]?Nan etal., Reasoning with Latent Structure Refinement for Document-Level Relation Extraction, ACL2020
[16] Zeng etal., Double Graph Based Reasoning for Document-level Relation Extraction, EMNLP2020
[17] Xu etal., Document-level Relation Extraction with Reconstruction, AAAI2021
[18] Zhou etal., Global Context-enhanced? Graph? Convolutional? Networks for Document-level Relation Extraction, COLING2020
[19] Zhang etal., Document-level Relation Extraction with Dual-tier Heterogeneous Graph, COLING2020
[20] Wang etal., Global-to-local? Neural? Networks for Document-level? Relation? Extraction, EMNLP2020
[21] Li etal., Graph Enhanced Dual Attention Network for Document-level Relation Extraction, COLING2020
[22] Peng etal., Cross-sentence N-ary Relation Extraction with Graph LSTMs, TACL2017
?
?
OpenKG
開放知識圖譜(簡稱 OpenKG)旨在促進(jìn)中文知識圖譜數(shù)據(jù)的開放與互聯(lián),促進(jìn)知識圖譜和語義技術(shù)的普及和廣泛應(yīng)用。
點(diǎn)擊閱讀原文,進(jìn)入 OpenKG 網(wǎng)站。
總結(jié)
以上是生活随笔為你收集整理的论文小综 | 文档级关系抽取方法(上)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 论文浅尝 | 一种用于多关系问答的可解释
- 下一篇: 论文浅尝 - ACL2022 | 基于多