WSDM 2021 | 基于双向推理的多跳知识库问答技术
?作者?|?何高樂
學(xué)校?|?中國(guó)人民大學(xué)信息學(xué)院碩士
來源?|?RUC AI Box
引語(yǔ)
前言:今天要介紹的論文是我們小組發(fā)表在WSDM 2021的一篇論文,基于雙向推理自動(dòng)為多跳知識(shí)庫(kù)問答任務(wù)學(xué)習(xí)中間監(jiān)督信號(hào)。
論文地址:
https://arxiv.org/abs/2101.03737
開源項(xiàng)目:
https://github.com/RUCAIBox/WSDM2021_NSM
當(dāng)前,我們的NSM+h模型預(yù)測(cè)結(jié)果在CWQ的總榜上排名第二。
1、論文動(dòng)機(jī)
近年來,多跳知識(shí)庫(kù)問答(Knowledge Base Question Answering, KBQA)獲得了廣泛的關(guān)注。由于標(biāo)注整個(gè)多跳推理過程代價(jià)較高,通常只能獲得弱監(jiān)督信號(hào)(問題答案對(duì))訓(xùn)練模型,而中間推理過程的標(biāo)注缺失。受此影響,模型常通過歧義推理得到正確答案,訓(xùn)練數(shù)據(jù)無法得到有效利用。
如圖1所示,給定圖中問題后,模型應(yīng)當(dāng)從話題實(shí)體菲力茲九命貓出發(fā),沿著“電影演員 出演 電影類別”的關(guān)系路徑進(jìn)行推理(此過程為多跳推理)。然而由于缺乏中間推理步驟的監(jiān)督,模型也可能通過歧義路徑(藍(lán)色路徑)獲得正確答案喜劇。在進(jìn)行此類歧義推理(Spurious Reasoning)時(shí),模型也獲得了獎(jiǎng)勵(lì),學(xué)習(xí)了錯(cuò)誤的推理方式。
圖1. 歧義推理示意圖為應(yīng)對(duì)歧義推理挑戰(zhàn),本文嘗試通過教師-學(xué)生框架學(xué)習(xí)和利用中間監(jiān)督信號(hào)。其中,教師網(wǎng)絡(luò)利用雙向推理機(jī)制自動(dòng)學(xué)習(xí)中間監(jiān)督信號(hào);而學(xué)生網(wǎng)絡(luò)則受到中間監(jiān)督信號(hào)的增益,獲得更強(qiáng)的多跳推理能力。
2、相關(guān)定義
本文使用三元組集合 表征知識(shí)庫(kù),其中 和 分別代表實(shí)體和關(guān)系集合。給定自然語(yǔ)言問題 和知識(shí)庫(kù) ,多跳知識(shí)庫(kù)問答任務(wù)需要從話題實(shí)體(問題提及的實(shí)體)出發(fā)經(jīng)過多跳推理找到答案實(shí)體集合 。
本工作為 中的所有實(shí)體和關(guān)系學(xué)習(xí)向量表示,分別通過 和 定義其表示矩陣。表示矩陣的列向量 和 分別代指實(shí)體 和關(guān)系 的向量表示。文中的上標(biāo) 表示第 步推理時(shí)相關(guān)符號(hào)(變量)。為了方便描述,本文為所有三元組 添加一條逆三元組 ,然后通過 來定義實(shí)體 的鄰居。
3、神經(jīng)狀態(tài)機(jī)
3.1 設(shè)計(jì)思路
本文設(shè)計(jì)了如圖2所示的神經(jīng)狀態(tài)機(jī)(Neural State Machine, NSM)模型作為基礎(chǔ)模型和學(xué)生網(wǎng)絡(luò)。NSM模型由指示模塊和推理模塊組成。其中指示模塊拆分復(fù)雜問題的語(yǔ)義,生成指示向量控制多跳推理過程;而推理模塊采用了類圖網(wǎng)絡(luò)的方法,基于指示向量逐步更新圖中節(jié)點(diǎn)表示,生成當(dāng)前推理中各實(shí)體相關(guān)性分布(中間實(shí)體分布)。
圖2. 神經(jīng)狀態(tài)機(jī)示意圖3.2 指示模塊
指示模塊輸入問題 后,產(chǎn)生一些列指示向量 ,其中 為預(yù)設(shè)的推理步數(shù)。首先通過序列編碼器(LSTM網(wǎng)絡(luò))編碼問題得到隱藏狀態(tài)序列,然后基于注意力機(jī)制,在推理的不同步驟關(guān)注問題的不同部分,其計(jì)算方式如下:
3.3 推理模塊
為獲得實(shí)體類型信息,NSM模型通過單層圖網(wǎng)絡(luò)編碼鄰居關(guān)系初始化實(shí)體表示:
此刻畫方式的好處在于:(1)通過鄰居關(guān)系刻畫實(shí)體表示的方式能夠?yàn)橛?xùn)練過程未涉及的實(shí)體提供較好的語(yǔ)義表示(2)減少帶噪實(shí)體對(duì)于鄰居實(shí)體表示的影響。
推理模塊的第 步推理輸入為:第 步推理的指示向量 ,第步推理后產(chǎn)生的實(shí)體分布 和實(shí)體表示 。每次推理時(shí),NSM模型依據(jù)指示向量與關(guān)系信息進(jìn)行匹配:
其中 為可學(xué)習(xí)參數(shù), 為向量按位相乘。推理模塊基于實(shí)體鄰居 為實(shí)體 聚合匹配向量,并根據(jù)第步推理時(shí)鄰居實(shí)體相關(guān)性加權(quán)聚合:
其中是第推理后實(shí)體 的相關(guān)性。然后通過如下公式更新實(shí)體的表示:
其中 是可學(xué)習(xí)參數(shù)。推理模塊將當(dāng)前實(shí)體表示 與本次推理所得匹配信息 融合,旨在將從話題實(shí)體出發(fā)得到的關(guān)系路徑信息編碼到實(shí)體表示中。然后推理模塊能夠基于更新后的實(shí)體表示計(jì)算新的實(shí)體相關(guān)性分布::
其中是可學(xué)習(xí)參數(shù)。推理模塊的輸出為更新后的實(shí)體表示和實(shí)體分布 。
通過指示模塊與推理模塊的協(xié)作,NSM模型完成了一步推理。
4、基于雙向推理自動(dòng)學(xué)習(xí)中間監(jiān)督信號(hào)
4.1 主要思路
為了讓模型獲得較強(qiáng)的多跳推理能力同時(shí)避免歧義推理,我們首先訓(xùn)練教師網(wǎng)絡(luò)來學(xué)習(xí)可靠的中間推理過程。在教師網(wǎng)絡(luò)收斂后,學(xué)生網(wǎng)絡(luò)在多跳推理的中間步驟也能獲得有效反饋。整體框架示意圖如圖3所示:
圖3. 本文教師-學(xué)生框架示意圖受到圖上雙向搜索算法的啟發(fā),本文提出利用雙向推理機(jī)制增強(qiáng)教師網(wǎng)絡(luò)生成的中間監(jiān)督信號(hào)。此前,相關(guān)研究多聚焦于從話題實(shí)體出發(fā)推理答案實(shí)體(前向推理)。而本文額外考慮了從答案實(shí)體出發(fā)反向推理話題實(shí)體(后向推理)。通過讓這兩類推理過程在多跳推理的中間步驟保持實(shí)體分布的一致性,教師網(wǎng)絡(luò)能夠?qū)W習(xí)到更加可靠的中間監(jiān)督信號(hào)。
給定一個(gè) 步的推理過程,我們同時(shí)獲得了前向推理和后向推理中間實(shí)體分布 ,其中下標(biāo) 和 分別代表前向和后向。本文兩推理過程在中間對(duì)應(yīng)步驟保持一致,可以通過如下關(guān)系來進(jìn)行刻畫:
4.2 基于雙向推理的教師網(wǎng)絡(luò)
基于雙向推理的模式,我們?cè)O(shè)計(jì)了兩種推理架構(gòu)——平行推理和復(fù)合推理。
如圖4所示,平行推理架構(gòu)為兩推理過程設(shè)置了獨(dú)立的NSM模型,僅通過中間實(shí)體分布的對(duì)齊約束來關(guān)聯(lián)兩推理過程,無參數(shù)共享。
圖4. 平行推理架構(gòu)如圖5所示,復(fù)合推理架構(gòu)中的兩個(gè)NSM模型共享了指示模塊,并進(jìn)行了更深層次的信息交流:(1)在對(duì)應(yīng)的中間推理步驟,兩模型輸入相同指示向量(2)兩模型的推理模塊串聯(lián)成環(huán)(先前向再后向)。除對(duì)齊約束外,該架構(gòu)將后向推理過程的初始狀態(tài)初始化為前向推理過程的最終輸出。
圖5. 復(fù)合推理架構(gòu)由于訓(xùn)練集上話題實(shí)體和答案實(shí)體均已知,本文方法能夠基于雙向推理機(jī)制訓(xùn)練教師網(wǎng)絡(luò)。在教師網(wǎng)絡(luò)收斂后,通過平均雙向推理過程對(duì)應(yīng)步驟預(yù)測(cè)實(shí)體分布,我們獲得了中間實(shí)體分布的標(biāo)注:
學(xué)生網(wǎng)絡(luò)進(jìn)行多跳推理時(shí),會(huì)在中間步驟通過刻畫如下?lián)p失模仿教師網(wǎng)絡(luò)生成的實(shí)體分布:
其中和分別代表學(xué)生網(wǎng)絡(luò)和教師網(wǎng)絡(luò)在第步推理后預(yù)測(cè)的實(shí)體分布, 為KL散度。
更多模型細(xì)節(jié)和優(yōu)化方法請(qǐng)參考我們的原論文。
5、實(shí)驗(yàn)
5.1 實(shí)驗(yàn)設(shè)定
本文在WebQuestionsSP(webqsp)、Complex WebQuestions 1.1(CWQ)和MetaQA三個(gè)基準(zhǔn)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。本文為數(shù)據(jù)集中的每個(gè)問題抽取子圖進(jìn)行推理,其統(tǒng)計(jì)數(shù)字如表1所示。其中coverage代表每個(gè)子圖中至少包含一個(gè)答案的比例,#entity代表各數(shù)據(jù)集子圖實(shí)體數(shù)的均值。本方法通過模型最終實(shí)體分布來生成答案實(shí)體,利用 指標(biāo)評(píng)估模型表現(xiàn)。
表1. 基準(zhǔn)數(shù)據(jù)集統(tǒng)計(jì)數(shù)字5.2 實(shí)驗(yàn)結(jié)果
如表2所示,基準(zhǔn)數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果表明:(1)本文提出的NSM模型能夠在大多數(shù)情況下較以往的方法可比或更好(2)加入雙向推理機(jī)制的教師網(wǎng)絡(luò)后,NSM模型能夠得到進(jìn)一步提升。
表2. 基準(zhǔn)數(shù)據(jù)集實(shí)驗(yàn)結(jié)果表2的結(jié)果中NSM模型加入教師網(wǎng)絡(luò)后無明顯提升,我們猜想是由于MetaQA數(shù)據(jù)集訓(xùn)練數(shù)據(jù)過于充分造成的(每個(gè)劃分近10萬條訓(xùn)練樣本,不到300個(gè)問題模板)。為驗(yàn)證這一猜想,我們?yōu)镸etaQA數(shù)據(jù)集訓(xùn)練集中每個(gè)模板的問題挑選一個(gè)樣本作為單射訓(xùn)練集,保持驗(yàn)證集和測(cè)試集不變,其結(jié)果如表3所示。實(shí)驗(yàn)結(jié)果表明:(1)神經(jīng)狀態(tài)機(jī)模型在稀疏的訓(xùn)練數(shù)據(jù)下仍然表現(xiàn)良好(2)教師模型在稀疏情況下帶來的提升更加顯著。
表3. MetaQA數(shù)據(jù)集單射實(shí)驗(yàn)結(jié)果更多實(shí)驗(yàn)分析和實(shí)現(xiàn)細(xì)節(jié),請(qǐng)參照我們的原論文和開源項(xiàng)目。
更多知識(shí)庫(kù)問答相關(guān)背景,也可以參照我們近期被接收的IJCAI survey:https://arxiv.org/abs/2105.11644
6、總結(jié)與展望
本文的主要貢獻(xiàn)包含:
(1)提出了一種針對(duì)多跳知識(shí)庫(kù)問答任務(wù)的神經(jīng)狀態(tài)機(jī)(NSM)模型。
(2)提出了一種基于教師-學(xué)生框架的多跳知識(shí)庫(kù)問答方法。教師模型基于雙向推理機(jī)制自動(dòng)學(xué)習(xí)多跳推理過程的中間監(jiān)督信號(hào),并用以強(qiáng)化學(xué)生模型多跳推理能力,避免歧義推理。
為進(jìn)一步利用或提升本文所述方法,可以從以下幾個(gè)方面入手:
(1)引入動(dòng)態(tài)的圖擴(kuò)張機(jī)制,擺脫靜態(tài)子圖推理的局限。
(2)在更多基于子圖推理場(chǎng)景下,驗(yàn)證神經(jīng)狀態(tài)機(jī)(NSM)模型和雙向推理機(jī)制的有效性。
更多閱讀
#投 稿?通 道#
?讓你的文字被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識(shí)的人。
總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)術(shù)熱點(diǎn)剖析、科研心得或競(jìng)賽經(jīng)驗(yàn)講解等。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來。
?????稿件基本要求:
? 文章確系個(gè)人原創(chuàng)作品,未曾在公開渠道發(fā)表,如為其他平臺(tái)已發(fā)表或待發(fā)表的文章,請(qǐng)明確標(biāo)注?
? 稿件建議以?markdown?格式撰寫,文中配圖以附件形式發(fā)送,要求圖片清晰,無版權(quán)問題
? PaperWeekly 尊重原作者署名權(quán),并將為每篇被采納的原創(chuàng)首發(fā)稿件,提供業(yè)內(nèi)具有競(jìng)爭(zhēng)力稿酬,具體依據(jù)文章閱讀量和文章質(zhì)量階梯制結(jié)算
?????投稿通道:
? 投稿郵箱:hr@paperweekly.site?
? 來稿請(qǐng)備注即時(shí)聯(lián)系方式(微信),以便我們?cè)诟寮x用的第一時(shí)間聯(lián)系作者
? 您也可以直接添加小編微信(pwbot02)快速投稿,備注:姓名-投稿
△長(zhǎng)按添加PaperWeekly小編
????
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁(yè)搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結(jié)
以上是生活随笔為你收集整理的WSDM 2021 | 基于双向推理的多跳知识库问答技术的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 永康牛太郎自助烧烤开业了吗?
- 下一篇: 经常吃方便面有什么害处啊?