春节期间,你错过了这些开源论文 | Paper + Code 清单
在碎片化閱讀充斥眼球的時(shí)代,越來(lái)越少的人會(huì)去關(guān)注每篇論文背后的探索和思考。
在這個(gè)欄目里,你會(huì)快速 get 每篇精選論文的亮點(diǎn)和痛點(diǎn),時(shí)刻緊跟 AI 前沿成果。
點(diǎn)擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第?46?篇文章[ 自然語(yǔ)言處理 ]
@Synced 推薦
#RNN
近日,CMU 和蒙特利爾大學(xué)聯(lián)合提出一種新型的多級(jí)記憶的 RNN 架構(gòu)——嵌套 LSTM。在訪問(wèn)內(nèi)部記憶時(shí),嵌套 LSTM 相比傳統(tǒng)的堆棧 LSTM 有更高的自由度,從而能處理更長(zhǎng)時(shí)間規(guī)模的內(nèi)部記憶。
實(shí)驗(yàn)也表明,NLSTM 在多種任務(wù)上都超越了堆棧 LSTM。作者認(rèn)為嵌套 LSTM 有潛力直接取代堆棧 LSTM。
@hussar 推薦
#Knowledge Representation
本文提出了一種統(tǒng)一的開(kāi)放知識(shí)表示方法 OKR,可以解決多文檔的摘要問(wèn)題。通過(guò)各種指代鏈接技術(shù)對(duì)多文檔的信息進(jìn)行壓縮。
Deconvolutional Paragraph Representation Learning
@icaruss 推薦
#Encoder-Decoder Framework
這篇 2017 年發(fā)表在 NIPS 的文章提供了一個(gè) deconvolutional text autoencoder 架構(gòu),在長(zhǎng)文本重構(gòu)上從原先的 20 多的 bleu score 提升到 90 多,并在文本分類等下游任務(wù)上提升顯著。另外,本文在速度上也提升了三到五倍。
KBGAN: Adversarial Learning for Knowledge Graph Embeddings@paperweekly 推薦
#Knowledge Graph
知識(shí)圖譜和 NLP 數(shù)據(jù)里通常只有正樣本,所以訓(xùn)練傳統(tǒng)嵌入模型的時(shí)候,大家喜歡用隨機(jī)采樣方法生成負(fù)例。但是這樣生成的負(fù)例往往質(zhì)量很差,對(duì)模型訓(xùn)練沒(méi)什么幫助。作者提出了一種基于強(qiáng)化對(duì)抗學(xué)習(xí)的新方法,可以自動(dòng)生成高質(zhì)量的負(fù)樣本。
MobiRNN: Efficient Recurrent Neural Network Execution on Mobile GPU@kaierlong 推薦
#Recurrent Neural Network
本文提出的 MobiRNN 框架,可以顯著降低 RNN 模型在手機(jī)設(shè)備上的運(yùn)行時(shí)間。
Spectral Normalization for Generative Adversarial Networks@paperweekly 推薦
#GAN
訓(xùn)練不穩(wěn)定至今仍是 GAN 的一個(gè)重大挑戰(zhàn)。本文提出了一種新型權(quán)值歸一化(weight normalization)技術(shù)?SN-GANs,能讓判定器訓(xùn)練更加穩(wěn)定。
這是一種輕量化、易實(shí)現(xiàn)的方法,作者用 CIFAR10、STL-10 和 ILSVRC2012 的數(shù)據(jù)集對(duì)它進(jìn)行了測(cè)試,實(shí)驗(yàn)證明,SN-GANs 能比以往提出的穩(wěn)定方法生成質(zhì)量更高,或者至少是質(zhì)量相當(dāng)?shù)膱D像。
Parallel Tracking and Verifying@chenhong 推薦
#Object Tracking
object tracking 是視頻分析的基本任務(wù),長(zhǎng)期以來(lái)一直有兩大陣營(yíng),CF 相關(guān)濾波和 CNN,當(dāng)然也可以 CF+CNN 融合。
本文將 tracking 過(guò)程分解為兩個(gè)并行但是相互協(xié)作的部分:一個(gè)用于快速的跟蹤(fast tracking),另一個(gè)用于準(zhǔn)確的驗(yàn)證(accurate verification)。?
@paperweekly 推薦
#Generative Adversarial Networks
本文為 ICLR 2018 錄用論文,主要研究如何從嘈雜、扭曲、局部的觀察中學(xué)習(xí) GAN。
@paperweekly 推薦
#Scene Recognition
基于卷積神經(jīng)網(wǎng)絡(luò)的 RGB-D 場(chǎng)景識(shí)別,本文為 AAAI2017 錄用文章。
TernausNet: U-Net with VGG11 Encoder Pre-Trained on ImageNet for Image Segmentation@Synced 推薦
#Image Segmentation
本文展示了 U-Net 類型的架構(gòu)如何利用預(yù)訓(xùn)練的編碼器提升性能。代碼和相關(guān)的預(yù)訓(xùn)練權(quán)重已開(kāi)源。文中比較了三種權(quán)重初始化方案:LeCun uniform、取自 VGG11 權(quán)重的編碼器和在 Carvana 數(shù)據(jù)集上訓(xùn)練的完整網(wǎng)絡(luò)。
該網(wǎng)絡(luò)架構(gòu)是 Kaggle 競(jìng)賽(Carvana Image Masking Challenge)中獲勝解決方案(在 735 名參賽者中排名第一)的一部分。
本文由 AI 學(xué)術(shù)社區(qū) PaperWeekly 精選推薦,社區(qū)目前已覆蓋自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和信息檢索等研究方向,點(diǎn)擊「閱讀原文」即刻加入社區(qū)!
#榜 單 公 布?#
2017年度最值得讀的AI論文 | NLP篇 · 評(píng)選結(jié)果公布
2017年度最值得讀的AI論文 | CV篇 · 評(píng)選結(jié)果公布
我是彩蛋?
?解鎖新功能:熱門(mén)職位推薦!
PaperWeekly小程序升級(jí)啦
今日arXiv√猜你喜歡√熱門(mén)職位√
找全職找實(shí)習(xí)都不是問(wèn)題
?
?解鎖方式?
1. 識(shí)別下方二維碼打開(kāi)小程序
2. 用PaperWeekly社區(qū)賬號(hào)進(jìn)行登陸
3. 登陸后即可解鎖所有功能
?職位發(fā)布?
請(qǐng)?zhí)砑有≈治⑿?#xff08;pwbot01)進(jìn)行咨詢
?
長(zhǎng)按識(shí)別二維碼,使用小程序
*點(diǎn)擊閱讀原文即可注冊(cè)
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結(jié)
以上是生活随笔為你收集整理的春节期间,你错过了这些开源论文 | Paper + Code 清单的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: NIPS 2017论文解读 | 基于对比
- 下一篇: 三味Capsule:矩阵Capsule与