还在为周会发愁?你需要这13篇最新论文 | 本周值得读
在碎片化閱讀充斥眼球的時(shí)代,越來(lái)越少的人會(huì)去關(guān)注每篇論文背后的探索和思考。
在這個(gè)欄目里,你會(huì)快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第 81?篇文章@shaness 推薦
#Attention Mechanism
本文是微軟和臺(tái)灣大學(xué)發(fā)表于 ICLR 2018 的工作,論文最大的價(jià)值是融合了當(dāng)前主流的 Attention 模型的各個(gè)層次表示,并且一一作了介紹,可以通過(guò)本文了解當(dāng)前主流 Attention 模型所用到的信息都是怎么得到的。文章使用了 GloVe 表示單詞,CoVe 表示上下文。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2005
代碼鏈接
https://github.com/momohuang/FusionNet-NLI
@qqfly1to19 推薦
#Word Embedding
眾所周知,Word Embedding 這種從語(yǔ)言結(jié)構(gòu)中學(xué)習(xí)出來(lái)的低維表示存在著很多問(wèn)題,諸如將原本的多義詞 Embedding 進(jìn)了一個(gè)向量里,具有相同語(yǔ)言結(jié)構(gòu)的 Word(如反義詞)具有相近的向量,這些問(wèn)題在實(shí)際的工程領(lǐng)域往往是致命的。本篇長(zhǎng)文總共 40 頁(yè),篇幅較長(zhǎng)。主要是從 Word Embedding 的工作出發(fā)去講Sense Embedding,內(nèi)容很厚,建議好好閱讀。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/1999
Hybrid semi-Markov CRF for Neural Sequence Labeling
@zxye 推薦
#CRF
本文是中科大發(fā)表于 ACL 2018 的工作,這篇文章聯(lián)合使用 CRF 和改進(jìn)的 Semi-CRF 在 CoNLL 2003 命名實(shí)體識(shí)別任務(wù)上達(dá)到了 state-of-the-art 的性能。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/1998
代碼鏈接
https://github.com/ZhixiuYe/HSCRF-pytorch
@guxd 推薦
#Dialog Systems
現(xiàn)有的對(duì)話模型通常采用變分自編碼器(VAE)實(shí)現(xiàn)多樣化的應(yīng)答生成,然而VAE模型假定對(duì)話的隱變量服從簡(jiǎn)單的高斯分布,從而限制了應(yīng)答的范圍(比如單模態(tài)應(yīng)答)。
本文提出一種基于 Wasserstein 自編碼器的應(yīng)答生成模型,不同于 VAE 模型的單一高斯先驗(yàn)假設(shè),本文通過(guò)在隱變量上進(jìn)行 GAN 訓(xùn)練,實(shí)現(xiàn)對(duì)真實(shí)數(shù)據(jù)分布的擬合。同時(shí)引入高斯混合先驗(yàn)網(wǎng)絡(luò)實(shí)現(xiàn)多模態(tài)回答生成。實(shí)驗(yàn)結(jié)果表明采用高斯混合先驗(yàn)的 GAN 模型在產(chǎn)生更連貫,信息豐富和多樣化的回應(yīng)方面優(yōu)于現(xiàn)有技術(shù)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2001
@paperweekly 推薦
#Abstractive Summarization
本文是 UNC Chapel Hill 發(fā)表于 ACL 2018 的工作,論文提出了新穎的基于強(qiáng)化學(xué)習(xí)的句子級(jí)的文本摘要生成模型,達(dá)到了 state-of-art 效果。
通過(guò)先抽取在生成的方式,加快了訓(xùn)練和測(cè)試解碼速度,同時(shí)引入強(qiáng)化學(xué)習(xí)將抽取和生成巧妙聯(lián)合起來(lái),構(gòu)成了一個(gè)整體的端到端模型而不是一個(gè) pipeline 系統(tǒng)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2017
代碼鏈接
https://github.com/ChenRocks/fast_abs_rl
@paperweekly 推薦
#Word Embeddings
本文是香港中文大學(xué)與 Tencent AI Lab 聯(lián)合發(fā)表于 ACL 2018 的工作。論文提出了一種學(xué)習(xí)領(lǐng)域適應(yīng)和情感感知的詞嵌入的新方法,能夠同時(shí)捕獲詞的情感語(yǔ)義和領(lǐng)域信息。
與已有方法不同的是,該方法利用評(píng)論中的情感信息和上下文信息來(lái)自動(dòng)確定和生成領(lǐng)域無(wú)關(guān)的詞向量和領(lǐng)域相關(guān)的詞向量,從而利用來(lái)自于多個(gè)領(lǐng)域的共同情感詞的信息,并且同時(shí)捕獲來(lái)自不同領(lǐng)域的領(lǐng)域相關(guān)詞的不同語(yǔ)義。
實(shí)驗(yàn)結(jié)果表明,該方法能夠更好的學(xué)習(xí)多領(lǐng)域情況下的情感詞表示,提高了句子層面和詞匯層面的情感分類任務(wù)的性能。
▲?論文模型:點(diǎn)擊查看大圖
 
論文鏈接
https://www.paperweekly.site/papers/2015
@shaness 推薦
#Machine Comprehension
機(jī)器閱讀理解在最近的文章中,主要是針對(duì)特定數(shù)據(jù)集上的表現(xiàn)做模型改進(jìn)。而微軟的這篇文章更加貼近現(xiàn)實(shí)問(wèn)題:如何讓機(jī)器自己從一個(gè)數(shù)據(jù)集上通過(guò)監(jiān)督學(xué)習(xí)生成答案和生成問(wèn)題的能力,然后無(wú)監(jiān)督地應(yīng)用在其他的 domain 里面,對(duì)缺少標(biāo)注數(shù)據(jù)的 MRC 問(wèn)題提出了遷移學(xué)習(xí)的解決思路。
本文思路分兩步合成,先根據(jù) paragraph(后簡(jiǎn)稱 p)生成答案(后簡(jiǎn)稱 a),然后根據(jù) p 和 a 生成 quenstion。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2012
代碼鏈接
https://github.com/davidgolub/QuestionGeneration
@yinnxinn 推薦
#Face Detection
本文來(lái)自百度,論文達(dá)到了超級(jí)好的人臉檢測(cè)效果。從工程角度將 FPN,RCNN,anchor 等多種結(jié)構(gòu)的優(yōu)勢(shì)結(jié)合起來(lái)。論文將 FPN 和 S^3^FD 的優(yōu)勢(shì)結(jié)合起來(lái),主干框架采取 VGG16 進(jìn)行特征提取,在 conv3_3,conv4_3,conv5_3 層使用 FPN 構(gòu)建 branch 對(duì)底層 feature 的背景信息進(jìn)行保留,最后將高低層的信息進(jìn)行組合得到 predict_layer。
▲?論文模型:點(diǎn)擊查看大圖
 
論文鏈接
https://www.paperweekly.site/papers/2006
@darksoul 推薦
#Object Detection
本文來(lái)自清華大學(xué)和商湯科技,文章使用量化的方法加強(qiáng) Mimic 的性能,對(duì) Mimic 的方法擴(kuò)展有新的指導(dǎo)意義。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2010
@born2 推薦
#Image Caption
對(duì)于 Image Caption 任務(wù),給出一張圖,生成一句話,已經(jīng)取得了長(zhǎng)足的進(jìn)步。本文提出了 Caption 方向的一個(gè)新問(wèn)題:如何產(chǎn)生個(gè)性化的 Caption。因?yàn)椴煌娜藢?duì)同樣的圖片會(huì)做出不同的描述,其中包含了描述者本身的用詞表達(dá)習(xí)慣等特征,如何針對(duì)性的學(xué)習(xí)某個(gè)人的表達(dá)式本文提出的新問(wèn)題。?
這個(gè)問(wèn)題很有強(qiáng)的實(shí)用價(jià)值,我們?nèi)粘I钪械奈⑿排笥讶?#xff0c;微博等等,圖片所配的問(wèn)題之中,都隱藏著個(gè)人平日的用詞習(xí)慣,如果能夠?qū)W習(xí)到一個(gè)相應(yīng)的模型,那么將會(huì)為我們節(jié)省大量的時(shí)間,我們只需要在機(jī)器生成的句子上做簡(jiǎn)單的修改,甚至不需要修改,就可以直接發(fā)布朋友圈。
存在兩個(gè)問(wèn)題,首先是數(shù)據(jù)庫(kù)的問(wèn)題,其次就是如何構(gòu)建一個(gè)能夠?qū)W習(xí)這種個(gè)性化的模型。
本文構(gòu)建了一個(gè)個(gè)性化的 Caption 數(shù)據(jù)庫(kù),并提出了使用記憶網(wǎng)絡(luò)進(jìn)行個(gè)人習(xí)慣用詞的提取,利用卷積的方式來(lái)獲取單詞和圖像之間的關(guān)系,最終取得了很好的效果。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2014
代碼鏈接
https://github.com/cesc-park/attend2u
@DeepTrial 推薦
#Image Segmentation
通過(guò)對(duì)輸入圖片的尺度進(jìn)行放縮,構(gòu)造多尺度。傳統(tǒng)的方法是使用 average-pooling 或 max-pooling 對(duì)不同尺度的特征進(jìn)行融合,而本文通過(guò)構(gòu)造 Attention model(由兩個(gè)卷積層構(gòu)成)從而自動(dòng)地去學(xué)不同尺度的權(quán)重,進(jìn)行融合(效果提升 1 到 2 個(gè)點(diǎn)吧,不同的數(shù)據(jù)集不一樣)。
從論文中的權(quán)重可視化的結(jié)果,能發(fā)現(xiàn)小尺寸輸入上,對(duì)應(yīng)網(wǎng)絡(luò)關(guān)注于 small-scale objects,而在大一點(diǎn)的尺寸上,網(wǎng)絡(luò)就關(guān)注于 middle-scale,large-scale 甚至 background contextual information。可視化效果感覺(jué)非常有意思。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/1950
代碼鏈接
http://liangchiehchen.com/projects/DeepLab.html
@daven88 推薦
#Recommender System
本文提出了一種新型的推薦系統(tǒng)算法——Metric Factorization(距離分解), 該方法旨在改進(jìn)傳統(tǒng)的基于矩陣分解的推薦系統(tǒng)算法。矩陣分解一個(gè)很大的問(wèn)題就是不符合 inequality property, 這很大程度上阻礙了其表現(xiàn)。
本文提出新型的解決方案,通過(guò)把用戶和商品看作是一個(gè)低緯空間里面的點(diǎn),然后用他們之間的距離來(lái)表示他們的距離。通過(guò)類似于矩陣分解的 squared loss 就能很好的從已有的歷史數(shù)據(jù)中學(xué)出用戶和商品在這個(gè)低維空間的位置。
Metric Factorization 可以用在評(píng)分預(yù)測(cè)和排序兩個(gè)經(jīng)典的推薦場(chǎng)景,并且都取得了 state-of-the-art 的結(jié)果,超過(guò)基于 deep learning 以及已有的 Metric learning 的推薦算法。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2002
@Davidzhang 推薦
#Reinforcement Learning
本文是 DeepMind 發(fā)表于 ICLR 2018 的工作。Exploration 是強(qiáng)化學(xué)習(xí)里面比較難的問(wèn)題,這篇 paper 通過(guò)分布式,可以說(shuō)用一個(gè)最簡(jiǎn)單的做法卻實(shí)現(xiàn)了非常好的 exploration。同時(shí),這篇 paper 也讓我們要意識(shí)到 RL 的分布式計(jì)算是非常重要的一個(gè)環(huán)節(jié),不僅僅是加快訓(xùn)練速度,還可以更好的提升效果。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/1994
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀(jì)念周邊一份
▲?深度學(xué)習(xí)主題行李牌/卡套 + 防水貼紙
?禮物領(lǐng)取方式?
推薦人請(qǐng)根據(jù)論文詳情頁(yè)底部留言
添加小助手領(lǐng)取禮物
想要贏取以上周邊好禮?
點(diǎn)擊閱讀原文即刻加入社區(qū)吧!
點(diǎn)擊以下標(biāo)題查看往期推薦:?
- ??來(lái)不及想標(biāo)題了,我要去打包收藏了 
- ??快醒醒,一大波最新 AI 論文加開(kāi)源代碼來(lái)襲! 
- ??15 篇最新 AI 論文來(lái)襲!NLP、CV...人人有份 
- 還在熬夜憋思路?這12篇最新論文打包送給你 
- 本周 AI 論文良心推薦,你想 pick 誰(shuí)? 
▲?戳我查看招募詳情
#作 者 招 募#
讓你的文字被很多很多人看到,喜歡我們不如加入我們
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 加入社區(qū)刷論文
總結(jié)
以上是生活随笔為你收集整理的还在为周会发愁?你需要这13篇最新论文 | 本周值得读的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
 
                            
                        - 上一篇: 学好机器学习,这里有想要的一切
- 下一篇: 阿里巴巴创新研究计划AIR2018正式发
