还在熬夜憋思路?这12篇最新论文打包送给你 | 本周值得读
在碎片化閱讀充斥眼球的時代,越來越少的人會去關(guān)注每篇論文背后的探索和思考。
在這個欄目里,你會快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第 78?篇文章@EricShen 推薦
#Word Embedding
這篇發(fā)表在 ACL 2018 上的論文來自于杜克大學(xué) Lawrence Carin 教授的實(shí)驗(yàn)室。文章重新審視了 deep learning models(例如 CNN, LSTM)在各類 NLP tasks 中的的必要性。
通過大量的實(shí)驗(yàn)探究(17 個數(shù)據(jù)集),作者發(fā)現(xiàn)對于大多數(shù)的 NLP 問題,在 word embedding 矩陣上做簡單的 pooling 操作就達(dá)到了比 CNN encoder 或者 LSTM encoder 更好的的結(jié)果。這類模型被作者命名為 SWEM (Simple Word-Embedding-based Models)。
文章進(jìn)一步提出了一種新型的 hierarchical pooling 操作:在考慮到部分 word-order 信息的同時,保持了模型的簡單性。值得一提的是,SWEM 模型相較于 LSTM 模型在訓(xùn)練速度上提高了 10 倍之多,在參數(shù)量上也大大減少。
論文鏈接
https://www.paperweekly.site/papers/1987
代碼鏈接
https://github.com/dinghanshen/SWEM
@guohao916 推薦
#Seq2Seq
針對 Seq2Seq 模型中存在的兩類問題:1. exposure bias; 2. inconsistency between train/test measurement,本文從強(qiáng)化學(xué)習(xí)的角度出發(fā),結(jié)合強(qiáng)化學(xué)習(xí)方法在決策上的優(yōu)勢和 Seq2Seq 模型在長期記憶方面的優(yōu)勢,提出了基于深度強(qiáng)化學(xué)習(xí)的序列到序列的模型,從而能夠更好地解決復(fù)雜情況下的 Seq2Seq任務(wù)。
論文鏈接
https://www.paperweekly.site/papers/1973
代碼鏈接
https://github.com/yaserkl/RLSeq2Seq
Training Classifiers with Natural Language Explanations
@erutan 推薦
#Relation Extraction
本文是斯坦福大學(xué)發(fā)表于 ACL 2018 的工作。在關(guān)系抽取中,本文利用標(biāo)注時標(biāo)注者提供的自然語言解釋,使用極弱的基于規(guī)則的領(lǐng)域無關(guān)的 parser 將其轉(zhuǎn)化為標(biāo)注規(guī)則,并自動去除了大多數(shù)矛盾的規(guī)則,將其運(yùn)用在大量未標(biāo)注數(shù)據(jù)中獲取弱標(biāo)注信息,利用 weakly-supervised 的方法訓(xùn)練并取得不錯的效果。?
比較有意思的點(diǎn)在于,一個是利用了標(biāo)注者給出的基于自然語言的解釋,這是一種相對而言可以較為廉價(jià)獲得(相對于更專業(yè)的結(jié)構(gòu)化語言)的資源。另一個是使用了領(lǐng)域無關(guān)的弱 parser,卻非常簡單地篩掉了大多數(shù)錯誤規(guī)則并且指出部分“細(xì)微的錯誤”還會帶來一些泛化能力上的提升。
論文鏈接
https://www.paperweekly.site/papers/1986
代碼鏈接
https://github.com/HazyResearch/babble
@lipaper9527 推薦
#Sentence Embedding
本文是 Facebook AI Research 發(fā)表于 ACL 2018 的工作,文章構(gòu)建了一系列的句子級別的任務(wù)來檢測不同模型獲得的句子向量的質(zhì)量。
任務(wù)包含表層的信息如預(yù)測句子長度或某個字是否出現(xiàn)在句子中,也包含句法信息如句法樹的深度,語義信息如時態(tài)、主語個數(shù)、賓語個數(shù)等。論文旨在比較不同模型獲得的句子向量的質(zhì)量。非常有意思且有價(jià)值。
論文鏈接
https://www.paperweekly.site/papers/1977
@xwzhong 推薦
#Sentence Embedding
本文來自 Google Research,文章提出使用對話數(shù)據(jù)+遷移學(xué)習(xí)(此處使用了 SNLI 數(shù)據(jù)集)來生成句向量,從而用于 QA 中 question rerank,answer rerank 和 sentence 相似度計(jì)算等任務(wù)中。
論文鏈接
https://www.paperweekly.site/papers/1984
論文筆記
https://www.paperweekly.site/papers/notes/397
@xiaolu 推薦
#Visual Question Answering
本文是清華大學(xué)和微軟發(fā)表在 KDD ’18 的工作,近來一些 VQA 工作引入了高級語義概念,例如利用計(jì)算機(jī)視覺領(lǐng)域的一些方法挖掘圖像中的語義實(shí)體和屬性,從而為 VQA 模型提供豐富的語義信息。
相比于一元形式的實(shí)體和屬性,關(guān)系事實(shí)(Relation Fact)由主體實(shí)體、關(guān)系、對象實(shí)體三個要素組成,可以構(gòu)造大量的事實(shí)組合,因此具有更強(qiáng)大的語義表達(dá)能力。
然而,這些工作存在著明顯的局限性。一方面,它們使用高層次的語義概念為一元形式的實(shí)體或?qū)傩缘?#xff0c;只能表達(dá)有限的語義知識。另一方面,利用在其它任務(wù)或數(shù)據(jù)集中訓(xùn)練得到的模型提取圖像的候選概念,可能 VQA 任務(wù)中的問題內(nèi)容無關(guān)。?
為了更好地利用隱含在圖像中的語義知識,本文提出了一個新的模型框架用來學(xué)習(xí) VQA 任務(wù)中的視覺關(guān)系事實(shí)。具體而言,本文基于 Visual Genome 數(shù)據(jù)集,通過計(jì)算文本之間的語義相似度構(gòu)建 Relation-VQA(R-VQA)數(shù)據(jù)集,其中每一個數(shù)據(jù)由問題、正確答案和相關(guān)的支持關(guān)系事實(shí)組成。本文設(shè)計(jì)了一種關(guān)系事實(shí)檢測器可以預(yù)測與給定視覺問題相關(guān)的關(guān)系事實(shí)。?
本文進(jìn)一步提出了由視覺注意力機(jī)制和語義注意力機(jī)制組成的多步注意力模型,分別提取圖像中的視覺知識和語義知識。本文在兩個公開的 VQA 數(shù)據(jù)集上進(jìn)行了全面的實(shí)驗(yàn),證明本文的模型實(shí)現(xiàn)了目前最好的性能,同時驗(yàn)證了視覺關(guān)系事實(shí)在 VQA 任務(wù)中的效果。
論文鏈接
https://www.paperweekly.site/papers/1970
@huilyu 推薦
#Visual Question Answering
本文是亞利桑那州立大學(xué)發(fā)表于 AAAI 2018 的工作。VQA 的 reasoning 方面有待加強(qiáng)。本文利用 PSL(Probabilistic Soft Logic)engine 來定義 inputs 和 rules 并列出 top evidences 提供解釋。其中,inputs 由三部分構(gòu)成:image captioning and parsing into relation triples;question parsing into relation triples;phrasal similarity。
論文鏈接
https://www.paperweekly.site/papers/1988
代碼鏈接
https://github.com/adityaSomak/PSLQA
@SOC1 推薦
#Pose Estimation
本文是慕尼黑工業(yè)大學(xué)發(fā)表于 ICCV 2017 的工作,論文貢獻(xiàn)如下:
1. 基于擴(kuò)展 SSD 的 6D 姿態(tài)估計(jì);
2.不需要深度信息,只通過單幅 RGB 圖像就能估計(jì)出 6D 姿態(tài)。
論文鏈接
https://www.paperweekly.site/papers/1954
代碼鏈接
https://github.com/wadimkehl/ssd-6d
@xaj 推薦
Visual Question Answering
本文是杭州電子科技大學(xué)發(fā)表于 ICCV 2017 的工作,論文提出了一種新的 bilinear pooling 方法,即 MFB。此外,論文還引入了 co-attention 機(jī)制,來學(xué)習(xí) image 和 question 的 attention。
論文鏈接
https://www.paperweekly.site/papers/1989
代碼鏈接
https://github.com/yuzcccc/vqa-mfb
@yunfeinihao 推薦
#Image Segmentation
本文來自香港中文大學(xué),論文使用 U-Net 分割三維醫(yī)學(xué)圖像,可以借鑒到其他的醫(yī)學(xué)圖像中。此外,論文還使用了混合 dense 優(yōu)化網(wǎng)絡(luò),進(jìn)一步提升效果。
論文鏈接
https://www.paperweekly.site/papers/1968
@somtian 推薦
#Recommender System
本文是清華大學(xué)發(fā)表于 WWW 18 的工作,論文利用圖片增強(qiáng)效果,傳統(tǒng)的方法只考慮 CNN 抽取的圖像特征;而本文考慮了圖片中的美學(xué)特征對于推薦的影響;作者利用 BDN 從圖片中學(xué)習(xí)美學(xué)特征,然后將其融合到 DCF 中,增強(qiáng)用戶-產(chǎn)品,產(chǎn)品-時間矩陣,從而提高了推薦效果;在亞馬遜和 AVA 數(shù)據(jù)集上都取得了良好的效果。
論文鏈接
https://www.paperweekly.site/papers/1975
@ChenjiaBai 推薦
#Reinforcement Learning
本文來自 OpenAI,論文提供了解決強(qiáng)化學(xué)習(xí) Multi-Goal 問題的思路,擴(kuò)展了 Universal Value Function,并提供了實(shí)驗(yàn)環(huán)境。
論文鏈接
https://www.paperweekly.site/papers/1992
代碼鏈接
https://github.com/openai/baselines
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀(jì)念周邊一份
▲?機(jī)器學(xué)習(xí)主題行李牌/卡套
想要贏取以上周邊好禮?
點(diǎn)擊閱讀原文即刻加入社區(qū)吧!
點(diǎn)擊以下標(biāo)題查看往期推薦:?
??來不及想標(biāo)題了,我要去打包收藏了
??快醒醒,一大波最新 AI 論文加開源代碼來襲!
??15 篇最新 AI 論文來襲!NLP、CV...人人有份
選對論文,效率提升50% | 本周值得讀
本周 AI 論文良心推薦,你想 pick 誰?
▲?戳我查看招募詳情
#作 者 招 募#
讓你的文字被很多很多人看到,喜歡我們不如加入我們
關(guān)于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 加入社區(qū)刷論文
總結(jié)
以上是生活随笔為你收集整理的还在熬夜憋思路?这12篇最新论文打包送给你 | 本周值得读的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 超全总结:神经网络加速之量化模型 | 附
- 下一篇: 近期有哪些值得读的QA论文?| 专题论文