来不及想标题了,我要去打包收藏了 | 本周值得读
在碎片化閱讀充斥眼球的時代,越來越少的人會去關(guān)注每篇論文背后的探索和思考。
在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。
點擊本文底部的「閱讀原文」即刻加入社區(qū),查看更多最新論文推薦。
這是 PaperDaily 的第?56?篇文章@theodoric008 推薦
#Relation Extraction
本文是中科院自動化所發(fā)表于 AAAI 2018 的工作。論文提供了一種利用強化學(xué)習(xí)進(jìn)行實體關(guān)系抽取的思路,近幾年做 RE 的,有基于 Supervised 數(shù)據(jù)集的:2015 Xu CNN,2016 Zhou LSTM;有基于遠(yuǎn)程監(jiān)督數(shù)據(jù)集的:2015 Zeng PCNN,2016 Lin PCNN + ATT 等等。
本文也是基于遠(yuǎn)程監(jiān)督數(shù)據(jù)集,但是與前面提到的不同的是,本文模型可以對句子分類,而不僅僅對 Bag (Entity pair)。
Demystifying Core Ranking in Pinterest Image Search@Ttssxuan 推薦
#Content-based Image Retrieval
本文是 Pinterest 試驗的圖片檢索算法,本文從:training data,user/image featurization 和 ranking models 等角度進(jìn)行解讀,并做了性能和質(zhì)量方面的測試。
Group Normalization
@chlr1995 推薦
#Normalization
本文為 Kaiming He 新作。Batch-Norm 在深度學(xué)習(xí)中一直扮演著重要的角色,但 BN 也存在著明顯的問題——需要足夠大的 Batch Size,大大增加了訓(xùn)練的成本。本文提出了一種新的歸一化——Group Norm 替代 BN,并且通過實驗證明,在較小的 Batch Size 下,使用 GN 的網(wǎng)絡(luò)最終得到的結(jié)果,要比使用BN的結(jié)果更好。
CliCR: A Dataset of Clinical Case Reports for Machine Reading Comprehension@paperweekly 推薦
#Machine Reading Comprehension
本文提出了一個醫(yī)療領(lǐng)域的機器理解數(shù)據(jù)集。該數(shù)據(jù)集基于大量臨床病例報告,對病例進(jìn)行了約100,000次間隙填充查詢。
Single-Shot Bidirectional Pyramid Networks for High-Quality Object Detection@chlr1995 推薦
#Object Detection
雖然現(xiàn)在利用 DL 的方法在實體檢測方面取得了顯著的成果,但是這些方法往往都是面向低精度的檢測,即設(shè)定 IoU 為 0.5 提取粗精度的候選框,這樣就導(dǎo)致了精度低甚至?xí)z測出噪聲。
本文提出了一種雙向金字塔網(wǎng)絡(luò)結(jié)構(gòu),在不犧牲檢測效率的情況下,達(dá)到高精度檢測(如,IoU>0.5)。而且在實驗中,COCO 和 Pascal 數(shù)據(jù)集都取得了 state-of-the-art 的結(jié)果。
Averaging Weights Leads to Wider Optima and Better Generalization@paperweekly 推薦
#Deep Neural Networks
本文提出了一種簡單的 DNN 訓(xùn)練方法 SWA,作為 SGD 的替代。SWA 具備更好的泛化能力、更快的收斂速度,并且?guī)缀鯖]有任何計算開銷。
Deep Semantic Role Labeling with Self-Attention@robertdlut 推薦
#Self-Attention
本文來自 AAAI2018,廈門大學(xué) Tan 等人的工作。他們將 Self-Attention 應(yīng)用到了語義角色標(biāo)注任務(wù)(SRL)上,并取得了先進(jìn)的結(jié)果。這篇論文中,作者將 SRL 作為一個序列標(biāo)注問題,使用 BIO 標(biāo)簽進(jìn)行標(biāo)注,然后提出使用深度注意力網(wǎng)絡(luò)(Deep Attentional Neural Network)進(jìn)行標(biāo)注。
在每一個網(wǎng)絡(luò)塊中,有一個 RNN/CNN/FNN 子層和一個 Self-Attention 子層組成。最后直接利用 softmax 當(dāng)成標(biāo)簽分類進(jìn)行序列標(biāo)注。
@chlr1995 推薦
#Object Detection
YOLO 網(wǎng)絡(luò) V3 版本,比 SSD 速度提升了 3 倍,比 RetinaNet 速度提高近 4 倍。本文使用 DarkNet 作為底層網(wǎng)絡(luò),通過優(yōu)化模型細(xì)節(jié),進(jìn)一步加快了 YOLO 的速度。
@williamking5 推薦
#GAN
本文將 Hinton 大神最新提出的膠囊網(wǎng)絡(luò) CapsNet 取代 CNN,作為判別器應(yīng)用到了生成對抗網(wǎng)絡(luò)當(dāng)中。
Deep Matrix Factorization Models for Recommender Systems@somtian 推薦
#Recommender System
本文在利用深度學(xué)習(xí)做推薦時,考慮了推薦的顯式反饋和隱式反饋,將其融合構(gòu)建成一個矩陣,從而將用戶和產(chǎn)品的不同向量輸入到兩個并行的深層網(wǎng)絡(luò)中去。最后,設(shè)計了一種新型的損失函數(shù)以同時考慮評分和交互兩種不同類型的反饋數(shù)據(jù)。
@chlr1995 推薦
#Gated Recurrent Unit
在深度神經(jīng)網(wǎng)絡(luò)中,ReLU 往往被用作激活函數(shù),而使用 softmax 作為分類器。本文受到近來使用其他分類器方法啟發(fā),嘗試了使用 ReLU 作為 DNN 的分類器。
本文由 AI 學(xué)術(shù)社區(qū) PaperWeekly 精選推薦,社區(qū)目前已覆蓋自然語言處理、計算機視覺、人工智能、機器學(xué)習(xí)、數(shù)據(jù)挖掘和信息檢索等研究方向,點擊「閱讀原文」即刻加入社區(qū)!
點擊以下標(biāo)題查看往期推薦:?
選對論文,效率提升50% | 本周值得讀
好看的論文千篇一律,有趣的Github項目萬里挑一!
#作 者 招 募#
讓你的文字被很多很多人看到,喜歡我們不如加入我們
我是彩蛋?
?解鎖新功能:熱門職位推薦!
PaperWeekly小程序升級啦
今日arXiv√猜你喜歡√熱門職位√
找全職找實習(xí)都不是問題
?
?解鎖方式?
1. 識別下方二維碼打開小程序
2. 用PaperWeekly社區(qū)賬號進(jìn)行登陸
3. 登陸后即可解鎖所有功能
?職位發(fā)布?
請?zhí)砑有≈治⑿?#xff08;pwbot02)進(jìn)行咨詢
?
長按識別二維碼,使用小程序
*點擊閱讀原文即可注冊
關(guān)于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點擊 |?閱讀原文?| 加入社區(qū)刷論文
總結(jié)
以上是生活随笔為你收集整理的来不及想标题了,我要去打包收藏了 | 本周值得读的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 好看的论文千篇一律,有趣的Github项
- 下一篇: 再谈变分自编码器VAE:从贝叶斯观点出发