感觉灵感被掏空?你需要这 9 篇论文来补一补 | PaperDaily #05
 
 
在碎片化閱讀充斥眼球的時代,越來越少的人會去關(guān)注每篇論文背后的探索和思考。
 
 
在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
 
點擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第?5?篇文章[ 自然語言處理 ] What does Attention in Neural Machine Translation Pay Attention to?
@paperweekly 推薦
#Attention Model
本文對 attention 進行了詳細研究,對比了 NMT 中的 alignment,給出了很多有意思的結(jié)論。
Flexible End-to-End Dialogue System for Knowledge Grounded Conversation@lukepan 推薦
#Chatbot
該論?所引?的知識是以 tuple 的形式儲存在 KB 中的。 knowledge 的引??式如下:Candidate Facts Retriever 從 input 中提取 entity,然后在 KB 中進? query,將通過 relation 尋找到的 objects 和 subjects 作為 Candidate Facts 存儲為?個集合。?
 在 Reply Decoding 流程中,為了決定該使?哪些 facts,提出了 dynamic knowledge enquirer,?以根 據(jù) local contexts at various positions within a response 來 rank 并選擇集合中哪些 facts 應(yīng)該被使?。
 
Program Induction by Rationale Generation : Learning to Solve and Explain Algebraic Word Problems
@RamonYeung 推薦
#Question Answering
DeepMind 和牛津大學(xué)共同打造的代數(shù)問題數(shù)據(jù)集 AQuA(AQuA = Algebra Question Answering)。
 
@corenel 推薦
#Object Detection
新出的一篇視頻內(nèi)目標(biāo)檢測的文章,在逐幀的 RoI Pooling 上增加了幀間的 RoI Tracking(regresses box transformations (translation, scale, aspect ratio) across frames),結(jié)構(gòu)簡單,精度不錯,通過調(diào)間隔時間可以調(diào)整處理速度。
GP-GAN: Gender Preserving GAN for Synthesizing Faces from Landmarks@starif 推薦
#Face Synthesis
此文嘗試用 facial landmarks 通過 GAN 來合成人臉。除了 Adversarial loss,文章使用了 perceptual loss、L1 reconstruction error,特別還設(shè)計了 gender preserving loss。
 性別具有確定性、二元性,是人臉的一個很特別的屬性,也是對機器學(xué)習(xí)來說一個易用的信息,如何利用這一屬性來提高人臉的合成效果,文章或許可以給你一個很好的啟發(fā)。
 
@993917172 推薦
#Face Reenactment
2017 年,生成對抗網(wǎng)絡(luò) GAN 廣泛應(yīng)用在超分辨率復(fù)原 SR 等領(lǐng)域,并取得巨大發(fā)展。但是,GAN 的變體 WGAN,CGAN 等方法仍然較少的應(yīng)用于 SR 上。?
本文把超分辨率復(fù)原思想和 WGAN 結(jié)合起來,思路和上面的 SRGAN 有點類似。與之不同,它是用于解決人臉圖像分辨率不足的問題。該方法不僅采用基礎(chǔ) GAN(2014)作為基本網(wǎng)絡(luò)框架,還將 WGAN 作為提升 GAN 網(wǎng)絡(luò)學(xué)習(xí)能力的重要工具。?
總的來說,該方法使用卷積神經(jīng)網(wǎng)絡(luò)進行圖像復(fù)原,簡單高效,結(jié)合 GAN 網(wǎng)絡(luò),只要較少的訓(xùn)練樣本就可以讓生成圖像非常逼真,廣大學(xué)者可以嘗試在更多圖像對監(jiān)控場景下應(yīng)用人臉圖像的思路,發(fā)揮生成對抗網(wǎng)絡(luò)的威力。
[ 機器學(xué)習(xí) ]
Mixed Precision Training@機器之心 推薦
#CTC
減少模型半數(shù)內(nèi)存用量:百度 & 英偉達提出混合精度訓(xùn)練法。
 
@Nevertiree 推薦
#Deep Reinforcement Learning
深度強化學(xué)習(xí)的最新綜述,發(fā)表于 2017 下半年。本文是 Reddit 推薦的熱文。
 
@paperweekly 推薦
#Molecular Machine Learning
一個分子機器學(xué)習(xí) benchmark,最喜歡看到這種將機器學(xué)習(xí)應(yīng)用到傳統(tǒng)學(xué)科領(lǐng)域了。
本文由 AI 學(xué)術(shù)社區(qū) PaperWeekly 精選推薦,社區(qū)目前已覆蓋自然語言處理、計算機視覺、人工智能、機器學(xué)習(xí)、數(shù)據(jù)挖掘和信息檢索等研究方向,點擊「閱讀原文」即刻加入社區(qū)!
 關(guān)于PaperWeekly
 
 
 
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
 
 
 
 
▽ 點擊 |?閱讀原文?| 查看更多優(yōu)質(zhì)論文
總結(jié)
以上是生活随笔為你收集整理的感觉灵感被掏空?你需要这 9 篇论文来补一补 | PaperDaily #05的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
 
                            
                        - 上一篇: PaperWeekly社区 | 知识图谱
- 下一篇: 知识图谱 vs. 对话系统专题讨论 -
