论文浅尝 | 神经网络与非神经网络简单知识问答方法的强基线分析
來源:NAACL 2018
鏈接:http://aclweb.org/anthology/N18-2047
?
本文關(guān)注任務(wù)為面向簡單問題的知識(shí)庫問答(僅用KB中的一個(gè)事實(shí)就能回答問題)。作者將任務(wù)劃分為實(shí)體檢測(cè),實(shí)體鏈接,關(guān)系預(yù)測(cè)與證據(jù)整合,探究了簡單的強(qiáng)基線。通過基于SIMPLEQUEST IONS數(shù)據(jù)集上的實(shí)驗(yàn),作者發(fā)現(xiàn)基本的LSTM或者GRU加上一些啟發(fā)式方法就能夠在精確度上接近當(dāng)前最優(yōu),并且在沒有使用神經(jīng)網(wǎng)絡(luò)的情況下依然取得相當(dāng)不錯(cuò)的性能。這些結(jié)果反映出前人工作中,某些基于復(fù)雜神經(jīng)網(wǎng)絡(luò)方法表現(xiàn)出不必要的復(fù)雜性。
動(dòng)機(jī)
近期的簡單知識(shí)庫問答工作中,隨著神經(jīng)網(wǎng)絡(luò)模型復(fù)雜性的增加,性能也隨之提升。作者認(rèn)為這種趨勢(shì)可能帶來對(duì)網(wǎng)絡(luò)結(jié)構(gòu)有效性理解的缺失, Melis等人的研究也佐證了這一點(diǎn)。他們發(fā)現(xiàn),標(biāo)準(zhǔn)的LSTM通過適當(dāng)?shù)恼{(diào)參,就可以得到堪比最新網(wǎng)絡(luò)模型的性能。
從這一觀點(diǎn)出發(fā),作者嘗試去除不必要的復(fù)雜結(jié)構(gòu),直到獲得一個(gè)盡可能簡單但是性能優(yōu)異的模型
方法
實(shí)體檢測(cè)(Entity Detection)
實(shí)體檢測(cè)的目標(biāo)是確認(rèn)問題相關(guān)的實(shí)體,可以抽象為序列標(biāo)注問題,即識(shí)別問題中的每個(gè)字符是否是實(shí)體。考慮到涉及序列處理,采用RNN是相對(duì)流行的做法。
在神經(jīng)網(wǎng)絡(luò)策略上,作者以問句的詞嵌入矩陣作為輸入,在雙向LSTM和GRU上進(jìn)行實(shí)驗(yàn)。(因?yàn)槭菢?gòu)建baseline,作者并未在網(wǎng)絡(luò)模型上添加CRF層)
非神經(jīng)網(wǎng)絡(luò)方法則選用CRF(特征包括:詞位置信息,詞性標(biāo)注,n-gram等等)
通過實(shí)體檢測(cè),可以得到表達(dá)實(shí)體的一系列關(guān)鍵詞(字符)
?
實(shí)體鏈接(Entity Linking)
作者將實(shí)體鏈接抽象為模糊字符串匹配問題,并未使用神經(jīng)網(wǎng)絡(luò)方法。
對(duì)于知識(shí)庫中的所有實(shí)體,作者預(yù)先構(gòu)造了知識(shí)庫實(shí)體名稱n-gram的倒排索引,在實(shí)體鏈接時(shí),作者生成所有候選實(shí)體文本相應(yīng)的n-gram,并在倒排索引中查找和匹配它們(策略是優(yōu)先匹配較大粒度的n-gram)。
獲取到可能的實(shí)體列表后,采用Levenshtein Distance進(jìn)行排序篩選。
?
關(guān)系預(yù)測(cè)(Relation Prediction)
關(guān)系預(yù)測(cè)的目標(biāo)是確定問題所問的關(guān)系信息,作者將其抽象為句子分類問題。對(duì)于這個(gè)子任務(wù),作者在神經(jīng)網(wǎng)絡(luò)方法分別嘗試了RNN與CNN兩種。
RNNs:與實(shí)體檢測(cè)類似,作者也采用雙向RNN與GRU構(gòu)建模型,并僅依據(jù)隱狀態(tài)作為證據(jù)進(jìn)行分類,其他與目標(biāo)檢測(cè)模型一致。
CNNs:這里引用Kim等人(2014)的工作,簡化為單通道,使用2-4寬度做特征映射。
非神經(jīng)網(wǎng)絡(luò)方法則采用了邏輯回歸策略(Logistic Regression),特征方面選擇了兩組,其一是tfidf與bi-gram,其二是詞嵌入與關(guān)系詞。
?
證據(jù)整合(Evidence Integration)
該任務(wù)的目標(biāo)是從前面生成的m個(gè)候選實(shí)體與n個(gè)關(guān)系中選出(m!=n)一個(gè)實(shí)體-關(guān)系組合。
作者首先生成m*n個(gè)候選組合,考慮到實(shí)體檢測(cè)和關(guān)系預(yù)測(cè)是相對(duì)獨(dú)立的模型,這意味著很多組合意義不大,可以做初步消除。
在組合打分策略上,考慮到知識(shí)庫中相同的共享節(jié)點(diǎn),比如所有姓名為“亞當(dāng)斯密”的人,作者對(duì)出現(xiàn)頻率過高的實(shí)體進(jìn)行打分限制。
實(shí)驗(yàn)
對(duì)比實(shí)驗(yàn)基于 SIMPLEQUESTIONS數(shù)據(jù)集,并劃分?jǐn)?shù)據(jù)規(guī)模:訓(xùn)練集75.9K,驗(yàn)證集10.8K,測(cè)試集21.7K。
作者進(jìn)行了實(shí)體鏈接,關(guān)系預(yù)測(cè)和end2end問答三組實(shí)驗(yàn):
從各組實(shí)驗(yàn)的結(jié)果可以發(fā)現(xiàn),本文建立的基礎(chǔ)結(jié)構(gòu)模型所得到的baseline在三個(gè)任務(wù)中,均超過了部分較新的工作。
總結(jié)
實(shí)驗(yàn)結(jié)果有效驗(yàn)證了作者的觀點(diǎn),基本的LSTM或者GRU通過有效的調(diào)試,能夠在精確度上接近當(dāng)前最優(yōu),而非神經(jīng)網(wǎng)絡(luò)方法配合新的特征組合也能夠取得相當(dāng)不錯(cuò)的性能。
?
論文筆記整理:譚亦鳴,東南大學(xué)博士,研究方向?yàn)橹R(shí)庫問答、自然語言處理。
?
OpenKG.CN
中文開放知識(shí)圖譜(簡稱OpenKG.CN)旨在促進(jìn)中文知識(shí)圖譜數(shù)據(jù)的開放與互聯(lián),促進(jìn)知識(shí)圖譜和語義技術(shù)的普及和廣泛應(yīng)用。
點(diǎn)擊閱讀原文,進(jìn)入 OpenKG 博客。
總結(jié)
以上是生活随笔為你收集整理的论文浅尝 | 神经网络与非神经网络简单知识问答方法的强基线分析的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 基于SpringBoot2.x、Spri
- 下一篇: 论文浅尝 | 六篇2020年知识图谱预训