CVPR2017: Learning Deep Context-aware Features over Body and Latent Parts for
論文查看
作者是中科院的Dangwei Li等。這篇工作是multi-class person identification tasks,主要創新有三點:(1)用空洞卷積(dilated conv)進行多尺度特征提取,減少傳統CNN提取特征的信息損失;(2)利用Spatial Transformer Networks (STN,其中作者設置了三個參數限制) 提取可變的body-part,相比較于rigid divid, 能減少背景的影響; (3)將full body特征和parts特征融合,在identification classification 指導下,學習網絡參數。
Yu, Fisher, and Vladlen Koltun. “Multi-scale context aggregation by dilated convolutions.” arXiv preprint arXiv:1511.07122 (2015).
Part 4 Experiments
4.1 Datasets and protocols
本節分成Datasets和protocols兩部分。
Datasets: 第一段先整體介紹下哪些數據集上進行實驗,其他段再分數據集單獨介紹。
Protocols:介紹哪個數據集上進行哪些評估。
4.2 Implementation Details
分為Model , optimization 和 Data preprocessing 三部分
Model: 指出除了總的網絡外,為了單獨分析full body and body parts,抽出了兩個sub models.
Optimization: 在caffe上實現,BP計算梯度,學習率等。
Data preprocessing :160x60, 1.0/256, image horizontally reflect
4.3 Comparison with state-of-the-art methods
分數據集進行比較,每個數據集一個單獨的部分。
- For the CUHK03 dataset, we compare our method with many existing
approaches, including XX, XX….. - Compared with XXXX, such as XXX, the proposed XXXX improves the Rank-1 identification rate by 11.66% and 13.29% on the labeled and detected datasets respectively.
- Compared with XXXXX, our XXXX improves the Rank-1 identification rate by 2.93% and mAP by 4.22%.
4.4 Effectiveness of MSCAN(多尺度網絡)
To determine the effectiveness of …., we explore four variants of … to learn IDE feature based on the whole body image.
選擇一個數據集Market1501進行評估,分別設定dilated ratio 為1,2,3,4,指出3是個合適的選擇(4的時候比3進展了一點點)
4.5 Effectiveness of Latent part location
(1)Learned parts vs. rigid parts:選擇Market1501比較學習到部分和硬性指定的部分對結果的影響。
(2)可視化的方式展示學習到的部分和硬性分割的部分區別:學習到的部分由較大的重疊,同時包含較少的背景
(3)Effectiveness of location loss 評估約束的作用。
在基于部分的網絡上評估約束(Market1501)
4.6 Cross-dataset Evaluation
在其他數據集上的模型遷移到VIPeR,分別驗證了直接遷移和微調后的性能。
————————————————————————————————
關于dilated conv, 摘自知乎:
作者:譚旭
鏈接:https://www.zhihu.com/question/54149221/answer/192025860
來源:知乎
著作權歸作者所有。
總結
以上是生活随笔為你收集整理的CVPR2017: Learning Deep Context-aware Features over Body and Latent Parts for的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: loss和accuracy的关系
- 下一篇: 各种卷积操作