论文笔记:Git Loss
生活随笔
收集整理的這篇文章主要介紹了
论文笔记:Git Loss
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
原文:Git Loss for Deep Face Recognition
Git Loss
1、四個問題
- 諸如人臉識別、指紋識別等的識別任務,測試集不確定或類別較多而樣本較少的情況。
- one-shot-learning。
- 最小化類內差異,最大化類間差異。
- 提出了一個新的loss函數——git loss。
- git loss是基于center loss的基礎之上改進的,center loss可以加強網絡縮小類內差異的能力,而git loss可以加強網絡增加類間差異的能力。
- 在兩個benchmark數據庫上:Labeled Faces in the Wild(LFW) and YouTube Faces (YTF) 取得了state-of-the-art的結果。
- 與center loss一樣,訓練時的計算成本很大,每次訓練都要計算當前batch的所有特征的中心。
2、論文概述
2.1、Deep Metric Learning Approaches
- 優點:
- 深度度量學習方法,如contrastive loss可以優化樣本對之間的相似度,triplet loss會優化三元組樣本對之間的相對相似度。使用contrastive loss和triplet loss可以有效地加強深度網絡提取很好分類的特征。
- 缺點:
- 使用contrastive loss和triplet loss需要注意樣本對的選擇,如果樣本對選擇的不好,模型的性能也會大打折扣。
- 由于訓練和測試時使用的都是樣本對,每次訓練都要計算多張圖像,這樣會增加訓練的計算量。
2.2、Git Loss
- git loss是基于center loss改進得到的。最小化類內間距,最大化類間間距。
- 由于讓同類樣本的特征更加緊湊(類似于git的pull操作),讓不同類樣本的特征距離更遠(類似于git的push操作),所以取名為了git loss。
- 公式說明:
- LSL_SLS?是Softmax Loss,LCL_CLC?是Center Loss,LGL_GLG?是Git Loss。
- λC\lambda_CλC?和λG\lambda_GλG?分別是給Center Loss和Git Loss的權重。
- cyic_{y_i}cyi??表示所有屬于yiy_iyi?類的特征xix_ixi?的中心值。
2.3、Toy example
- 基于MNIST做的實驗:
- 左圖中λG=0\lambda_G=0λG?=0,即為Center Loss的結果;由于為引入了Git Loss的結果。
- 從圖中可以直觀地看出Git Loss的類間距離更大,類內也更緊湊。
2.4、實驗結果
總結
以上是生活随笔為你收集整理的论文笔记:Git Loss的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 论文笔记:Distilling the
- 下一篇: 论文笔记:ShuffleNet v1