正经炼丹师如何完美安排国庆长假?| 假期专属论文清单
Hi,各位煉丹師
聽(tīng)說(shuō)還有不到0.5天
我就要開(kāi)啟快樂(lè)肥宅模式了
你的國(guó)慶長(zhǎng)假都有哪些安排呢?
景區(qū)看人,開(kāi)車堵車,
回家被嫌棄,單身還要出份子錢,
這些國(guó)慶常規(guī) bug,你真的想要嗎……
為了幫你合理安排國(guó)慶假期
小編連夜整理了一份最新論文清單
希望你們都能從中找到些許小靈感
請(qǐng)看
↓
@zhoujie17 推薦
#Graph-to-Sequence Learning
本文提出了一種新的 encoder-decoder 框架來(lái)進(jìn)行 graph-to-sequence 即圖到序列的學(xué)習(xí),在 AMR 圖的序列生成和基于句法的神經(jīng)機(jī)器翻譯任務(wù)上取得了較好的結(jié)果。本文提出的方法解決了之前工作中存在的問(wèn)題,包括將圖結(jié)構(gòu)線性化造成的信息丟失以及參數(shù)爆炸問(wèn)題。
本文提出了一種圖的轉(zhuǎn)換方法,通過(guò)將圖轉(zhuǎn)換為 Levi 圖從而解決了上述問(wèn)題。同時(shí)該框架將 Gated Graph Neural Network 加入到 encoder 部分,其余部分采用 seq2seq 的原始結(jié)構(gòu),在兩個(gè)任務(wù)上取得了超越了 seq2seq 的結(jié)果。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2301
源碼鏈接
https://github.com/beckdaniel/acl2018_graph2seq
@paperweekly 推薦
#Dialog Systems
本文是上海交大發(fā)表于 COLING 2018 的工作,研究的問(wèn)題是檢索型對(duì)話系統(tǒng)。論文提出了一個(gè)深度對(duì)話整合模型,解決了以往對(duì)話理解模型中將多句對(duì)話話語(yǔ)直接拼接而忽略話語(yǔ)間關(guān)系的問(wèn)題。
具體來(lái)說(shuō),論文模型將過(guò)往對(duì)話整合到 context 中,根據(jù)話語(yǔ)和回復(fù)挖掘關(guān)鍵信息,然后將每一個(gè)過(guò)往話語(yǔ)與回復(fù)進(jìn)行語(yǔ)義匹配得到匹配分?jǐn)?shù)。其中將最重要的回復(fù)前最后一句話語(yǔ)(可視為 query),與其他過(guò)往話語(yǔ)的向量表示進(jìn)行了融合,并通過(guò)編碼使每句話語(yǔ)中的關(guān)鍵信息得到凸顯、過(guò)濾冗余信息。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2352
源碼鏈接
https://github.com/cooelf/DeepUtteranceAggregation
@guohao916 推薦
#Machine Reading Comprehension
生活中,人們通常根據(jù)一系列相互關(guān)聯(lián)的問(wèn)答情況來(lái)收集信息。因此使用基于對(duì)話的機(jī)器閱讀理解可以更有利于信息的收集。針對(duì)該場(chǎng)景,本文發(fā)布了一個(gè)基于對(duì)話的機(jī)器閱讀理解數(shù)據(jù)集 CoQA。與以往的機(jī)器閱讀理解數(shù)據(jù)集如 SQUAD 不同,該數(shù)據(jù)集存在以下特點(diǎn):?
1. 與之前數(shù)據(jù)集中答案通常存在于篇章的句子片段中的情況不同,該數(shù)據(jù)集在生成過(guò)程中盡量避免使用句子中已經(jīng)存在的短語(yǔ)或者片段,以短語(yǔ)或者片段的同義詞或者同義片段的形式呈現(xiàn);
2. 問(wèn)題的答案中存在自由形式的短語(yǔ)片段,即需要對(duì)多條篇章句子加以歸納總結(jié);
3. 篇章分別來(lái)自一系列不同的領(lǐng)域;
4. 和多輪對(duì)話的情況類似,問(wèn)答對(duì)呈現(xiàn)出連續(xù)多輪的特點(diǎn),平均輪數(shù)為 15 輪。問(wèn)答對(duì)呈現(xiàn)出序列性的依賴關(guān)系。?
該問(wèn)題可以看成對(duì)話系統(tǒng)和問(wèn)答系統(tǒng)的一個(gè)綜合性的應(yīng)用。論文使用多種基準(zhǔn)算法進(jìn)行對(duì)比實(shí)驗(yàn),包括 Seq2Seq, PGNet, DrQA 以及 DrQA+PGNet。實(shí)驗(yàn)結(jié)果表明效果最優(yōu)的模型 DrQA+PGNet 依然比人工標(biāo)注得到的 F1 指標(biāo)數(shù)目要低很多,因此該數(shù)據(jù)集具有很大的模型提升空間。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2251
源碼鏈接
https://github.com/stanfordnlp/coqa-baselines
@tobiaslee 推薦
#Text Generation
本文是北京大學(xué)發(fā)表于 NAACL 2018 的工作。論文借鑒了 Attention is All your Need 的思想,通過(guò) Query 的方式來(lái)進(jìn)行文本的生成。
傳統(tǒng)文本生成的方式會(huì)使用一層全連接層將隱層狀態(tài)映射到詞表上,獲得一個(gè)概率分布,這樣做存在兩個(gè)問(wèn)題:參數(shù)量巨大和語(yǔ)言關(guān)系的丟失(沒(méi)考慮到詞的概率之間的關(guān)聯(lián)關(guān)系)。
本文采用將候選詞作為 value, 而對(duì)應(yīng)的 word embedding 則是 key,通過(guò)將 RNN 的輸出作為 query,根據(jù) query 和 embedding 的 similarity 來(lái)進(jìn)行生成詞的選取。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2302
源碼鏈接
https://github.com/lancopku/WEAN
@paperweekly 推薦
#Question Answer Matching
本文是漢諾威大學(xué)發(fā)表于 SIGIR 2018 的工作。Answer Selection 是 QA 任務(wù)中的重要子任務(wù),現(xiàn)有方法往往先通過(guò)單個(gè)向量對(duì)問(wèn)題和回答進(jìn)行表示,然后再計(jì)算打分。論文提出了一種多階段的 Sequential Attention 機(jī)制,將問(wèn)題進(jìn)行多次 attention,從而使得能夠在不同階段注意到答案不同的階段,有效處理了長(zhǎng)文本語(yǔ)義的表達(dá)問(wèn)題。
實(shí)驗(yàn)表明,本文提出的模型在各主流 QA 數(shù)據(jù)集(TREC-QA、WikiQA、InsuranceQA、FiQA)上均取得了最優(yōu)表現(xiàn)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2338
@mrililili 推薦
#Natural Language Inference
本文來(lái)自赫爾辛基大學(xué),論文主要關(guān)注的是自然語(yǔ)言推理任務(wù)。作者利用多層雙向 LSTM 進(jìn)行句子編碼,并用上一個(gè) LSTM 的結(jié)果初始化下一個(gè) LSTM,取得了較好的結(jié)果。此外,實(shí)驗(yàn)表明本文提出的句子嵌入方法可應(yīng)用于各類遷移學(xué)習(xí)任務(wù)。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2323
源碼鏈接
https://github.com/Helsinki-NLP/HBMP
@paperweekly 推薦
#Natural Language Understanding
自然語(yǔ)言處理任務(wù)的成功取決于標(biāo)注數(shù)據(jù)的數(shù)量和質(zhì)量,訓(xùn)練數(shù)據(jù)不足將直接影響任務(wù)精度和準(zhǔn)確度。針對(duì)文本語(yǔ)料不足的情況,本文提出了一種將神經(jīng)網(wǎng)絡(luò)和正則表達(dá)式相結(jié)合的方法,來(lái)改進(jìn) NLP 的監(jiān)督學(xué)習(xí)。
本文提出的方法在少量學(xué)習(xí)和完整注釋設(shè)置上都明顯提高了神經(jīng)網(wǎng)絡(luò)的性能。此外,本文為如何將 REs 與 NNs 和 RE 注釋相結(jié)合提供了一套指南。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2344
數(shù)據(jù)集鏈接
http://www.lancaster.ac.uk/staff/wangz3/publications/ACLData.zip
@lunar 推薦
#Dataset Creation
本文是由 CMU 的一眾科學(xué)家發(fā)布的一個(gè)公開(kāi)數(shù)據(jù)集,他們組織了 4 個(gè)受試者去觀察 5000 張圖片,并在他們觀察圖片時(shí)記錄下當(dāng)時(shí)腦部的核磁共振圖。 通過(guò)該數(shù)據(jù)集,我們可以將人工神經(jīng)網(wǎng)絡(luò)和人類神經(jīng)網(wǎng)絡(luò)聯(lián)合起來(lái)分析,可以想象通過(guò)這個(gè)數(shù)據(jù)集,可以做出許多有趣的工作。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2325
源碼鏈接
https://bold5000.github.io/
@paperweekly 推薦
#Pedestrian Detection
本文是中科院自動(dòng)化發(fā)表于 ECCV 2018 的工作。本文重點(diǎn)關(guān)注行人檢測(cè)中的遮擋問(wèn)題,并為此提出了兩種遮擋處理策略。作者在Faster R-CNN的基礎(chǔ)上提出了一種全新方法——OR-CNN,其主要包括兩個(gè)部分:第一階 段RPN 產(chǎn)生目標(biāo)候選框,第二階段 Fast R-CNN 對(duì)目標(biāo)候選框進(jìn)行進(jìn)一步的分類和回歸。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2364
@paperweekly 推薦
#Semantic Segmentation
本文是 UC Berkeley 發(fā)表于 ECCV 2018 的工作,論文提出了一種以自適應(yīng)相似場(chǎng)(Adaptive Affinity Fields )來(lái)輔助語(yǔ)義分割的方法,增強(qiáng)了網(wǎng)絡(luò)對(duì)目標(biāo)結(jié)構(gòu)推理的能力,取得了非常顯著的性能提升。
此外,本文提出的方法也是一種全新的深度學(xué)習(xí)結(jié)構(gòu)建模方法,不僅可以用于語(yǔ)義分割,理論上也適用于圖像深度估計(jì)、光流計(jì)算等對(duì)圖像進(jìn)行像素級(jí)理解的任何場(chǎng)景。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2365
源碼鏈接
https://github.com/twke18/Adaptive_Affinity_Fields
@paperweekly 推薦
#Person Re-ID
本文是復(fù)旦大學(xué)發(fā)表于 ECCV 2018 的工作,論文主要研究的是行人重識(shí)別任務(wù)中的人體姿態(tài)變化問(wèn)題。作者利用 GAN 生成新的姿態(tài)行人圖片,然后融合原圖和生成圖的 ReID 特征作為最終特征。在測(cè)試階段,論文定義了八種代表性的姿態(tài),然后生成八張人造圖,加上原圖總共可以得到九個(gè)特征,最后使用 max pooling 得到最終的 ReID 特征。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2361
源碼鏈接
https://github.com/naiq/PN_GAN
@DanielTANG 推薦
#Object Tracking
本文來(lái)自 UCL,論文提出了一種動(dòng)態(tài) RGBD SLAM 方案,不僅能實(shí)現(xiàn)實(shí)時(shí)的場(chǎng)景感知 3D 重建,而且利用了 Mask RCNN 以及幾何分割對(duì) 2D 圖像進(jìn)行實(shí)例分割,同時(shí)映射到 3D,建立 3D 模型的語(yǔ)義分割。并且將要開(kāi)放源碼,對(duì)于語(yǔ)義 SLAM 研究有著一定幫助。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2314
@woonchao 推薦
#3D Reconstruction
本文是香港中文大學(xué)和騰訊優(yōu)圖聯(lián)合發(fā)表于 ECCV 2018 的工作,論文提出了一個(gè)用于基于點(diǎn)云的 3D 模型重建損失函數(shù),相較于傳統(tǒng)的 Chamfer distance,這個(gè)損失能更好的刻畫(huà)全局信息,對(duì)于提升 3D 模型重建效果有很大幫助。
論文用 GAL 來(lái)刻畫(huà)重建之后的模型損失,它由兩個(gè)術(shù)語(yǔ)組成,其中幾何損失確保從不同視點(diǎn)接近 Groundtruth 的重建 3D 模型的一致形狀,條件對(duì)抗性損失生成具有語(yǔ)義意義的點(diǎn)云。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2334
@paperweekly 推薦
#Image Retrieval
本文是廈門大學(xué)和悉尼科技大學(xué)發(fā)表于 ECCV 2018 的工作,論文提出了一種異質(zhì)同源學(xué)習(xí)方法來(lái)解決無(wú)監(jiān)督域適應(yīng)問(wèn)題,歸根結(jié)底其依然是基于 GAN 生成圖的工作。
本文工作主要基于兩個(gè)假設(shè):1. 相機(jī)不變性,同未標(biāo)注的正樣本對(duì)來(lái)學(xué)習(xí)到相機(jī)的風(fēng)格;2. 域連通性,即 source 和 target 域的行人圖片默認(rèn)沒(méi)有重疊,是負(fù)樣本對(duì)。第一點(diǎn)是同源學(xué)習(xí),因?yàn)橛玫臉颖径际窍嗤虻摹5诙c(diǎn)是異質(zhì)學(xué)習(xí),因?yàn)橛玫搅藘蓚€(gè)域的樣本。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2362
源碼鏈接
https://github.com/zhunzhong07/HHL
@xuehansheng 推薦
#Network Embedding
本文是香港科技大學(xué)和騰訊發(fā)表于 IJCAI 2018的工作,論文提出了一種可擴(kuò)展的多路復(fù)用網(wǎng)絡(luò)嵌入模型(scalable multiplex network embedding model),將多字形關(guān)系的信息表示為一個(gè)統(tǒng)一的嵌入空間。
為了在保持其獨(dú)特屬性的同時(shí)組合不同類型關(guān)系的信息,對(duì)于每個(gè)節(jié)點(diǎn),作者為每種類型的關(guān)系提出一個(gè)高維公共嵌入和低維附加嵌入。然后,可以基于統(tǒng)一的網(wǎng)絡(luò)嵌入模型聯(lián)合學(xué)習(xí)多個(gè)關(guān)系。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2305
源碼鏈接
https://github.com/HKUST-KnowComp/MNE
@simonhua?推薦
#Neural Networks
本文利用 ML 對(duì)網(wǎng)絡(luò)進(jìn)行建模用來(lái)評(píng)估網(wǎng)絡(luò)性能,成功對(duì)網(wǎng)絡(luò)建模有利于網(wǎng)絡(luò)優(yōu)化,配合 SDN 在 SDN 控制器的幫助下能夠有效對(duì)網(wǎng)絡(luò)配置進(jìn)行合理優(yōu)化。本文提出了使用神經(jīng)網(wǎng)絡(luò)根據(jù)輸入流量函數(shù)準(zhǔn)確對(duì)網(wǎng)絡(luò)時(shí)延進(jìn)行建模。
作者基于不同計(jì)算機(jī)網(wǎng)絡(luò)參數(shù)(網(wǎng)絡(luò)拓?fù)?#xff0c;網(wǎng)絡(luò)大小,流量強(qiáng)度,路由策略)訓(xùn)練了不同神經(jīng)網(wǎng)絡(luò)模型,研究了不同的計(jì)算機(jī)網(wǎng)絡(luò)參數(shù)對(duì)于學(xué)習(xí)能力有何影響,對(duì)未來(lái)使用機(jī)器學(xué)習(xí)對(duì)網(wǎng)絡(luò)建模的可行性進(jìn)行了驗(yàn)證并提出了幾點(diǎn)討論建議,可以作為實(shí)際環(huán)境部署的指南方針。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2312
@MADONG 推薦
#Deep Reinforcement Learning
本文來(lái)自 DeepMind,論文主要貢獻(xiàn)如下:
1. 關(guān)系推理中深度學(xué)習(xí)的加入:深度學(xué)習(xí)讓關(guān)系表達(dá)的對(duì)象得以加入到我們的控制中,原先無(wú)法直接處理的物理對(duì)象可以引入了,這樣 agent 與真實(shí)世界的交互變得可能了,推理也就變得有意義了。 深度學(xué)習(xí)對(duì)特征的提取功能,讓關(guān)系強(qiáng)化學(xué)習(xí)能夠關(guān)注在深度學(xué)習(xí)抽象后的特征中,把特征對(duì)應(yīng)成自己需要掌握的關(guān)系對(duì)象。這樣其實(shí)比直接對(duì)應(yīng)真實(shí)的物體更進(jìn)一步;
2. Attention 模塊的加入:Attention 模塊讓關(guān)系強(qiáng)化學(xué)習(xí)中關(guān)系的表達(dá)得以更優(yōu)秀。原本的 RNN 等算法對(duì)于序列的長(zhǎng)短比較敏感,但是在 attention 機(jī)制下,兩個(gè)向量之間關(guān)系的計(jì)算不再受向量之間距離的影響。同一個(gè)場(chǎng)景下歐式距離較遠(yuǎn)的對(duì)象也可以很好的提取出存在的關(guān)系;
3. 強(qiáng)化學(xué)習(xí)的加入:在這里主要是監(jiān)督 attention 模塊中權(quán)值 w 的改變調(diào)整。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2300
@xuehansheng 推薦
#Network Embedding
本文來(lái)自亞利桑那州立大學(xué),論文提出了一種新穎的多級(jí)網(wǎng)絡(luò)嵌入框架 BoostNE,它可以學(xué)習(xí)從粗到細(xì)的不同粒度的多個(gè)網(wǎng)絡(luò)嵌入表示,而不會(huì)強(qiáng)加普遍的全局低秩假設(shè)。方法新穎值得深入研究。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2269
@linxi2333 推薦
#Audio Generation
本文是對(duì) DeepMind 的 Tacotron2 的改進(jìn),Tacotron2 是一種端到端的語(yǔ)音合成系統(tǒng)。論文單高斯簡(jiǎn)化了 parallel WaveNet 的 KL 目標(biāo)函數(shù),改進(jìn)了蒸餾算法(distillation),使得結(jié)構(gòu)更簡(jiǎn)單,更穩(wěn)定;通過(guò) Bridge-net 連接了 Tacotron(特征預(yù)測(cè)網(wǎng)絡(luò))和 WaveNet,徹底實(shí)現(xiàn)端到端。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2290
Demo鏈接
https://clarinet-demo.github.io/
@Ttssxuan 推薦
#Reinforcement Learning
本文對(duì) ALE (Arcade Learning Environment) 平臺(tái)做了進(jìn)一步深入介紹,主要從以下幾點(diǎn)出發(fā):1. 總結(jié)了關(guān)于 ALE 相關(guān)問(wèn)題的經(jīng)驗(yàn),如:Frame skipping, Color averaging and frame pooling 等;2. 總結(jié)最新成果,以及當(dāng)前待解決的一些問(wèn)題 ;3. 新的 ALE 版本,介紹了新平臺(tái)的特性,如:sticky actions, multiple game modes 等。
▲?論文模型:點(diǎn)擊查看大圖
論文鏈接
https://www.paperweekly.site/papers/2343
源碼鏈接
https://github.com/mgbellemare/Arcade-Learning-Environment
#推 薦 有 禮#
本期所有入選論文的推薦人
均將獲得PaperWeekly紀(jì)念周邊一份
▲?深度學(xué)習(xí)主題行李牌/卡套 + 防水貼紙
?禮物領(lǐng)取方式?
推薦人請(qǐng)根據(jù)論文詳情頁(yè)底部留言
添加小助手領(lǐng)取禮物
想要贏取以上周邊好禮?
點(diǎn)擊閱讀原文即刻推薦論文吧!
點(diǎn)擊以下標(biāo)題查看往期推薦:?
??15篇最新AI論文了解一下 | 本周值得讀
??收下這12篇最新論文,煉丹不愁沒(méi)靈感
??暑假?zèng)]人帶怎么辦?還有我們?yōu)槟阃扑]論文
??本周份AI論文推薦新鮮出爐!真的很skr了~
??本周最熱 AI 論文大集合,還不快一鍵收藏?
還在熬夜憋思路?這12篇最新論文打包送給你
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢??答案就是:你不認(rèn)識(shí)的人。
總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得或技術(shù)干貨。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來(lái)。
??來(lái)稿標(biāo)準(zhǔn):
? 稿件確系個(gè)人原創(chuàng)作品,來(lái)稿需注明作者個(gè)人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?
? 如果文章并非首發(fā),請(qǐng)?jiān)谕陡鍟r(shí)提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會(huì)添加“原創(chuàng)”標(biāo)志
? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請(qǐng)單獨(dú)在附件中發(fā)送?
? 請(qǐng)留下即時(shí)聯(lián)系方式(微信或手機(jī)),以便我們?cè)诰庉嫲l(fā)布時(shí)和作者溝通
?
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁(yè)搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?閱讀原文?| 獲取更多論文推薦
總結(jié)
以上是生活随笔為你收集整理的正经炼丹师如何完美安排国庆长假?| 假期专属论文清单的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 重磅 | 带学斯坦福CS231n计算机视
- 下一篇: Fashion-MNIST数据集发布一周