读论文:Charting the Right Manifold:Manifold Mixup for Few-shot Learning
讀論文:Charting the Right Manifold:Manifold Mixup for Few-shot Learning
文章目錄
- 一、補充知識
- 二、概述
- 三、主要貢獻
- 三、模型圖
- 四、對比實驗結果
- 五、原文鏈接
一、補充知識
什么是自監督學習?
自監督學習主要是利用輔助任務(pretext task)從大規模的無監督數據中挖掘自身的監督信息,通過這種構造的監督信息對網絡進行訓練,從而可以學習到對下游任務有價值的表征。其本質是一個feature提取器。
自監督學習所利用的pretext task層出不窮,主要介紹一下本文所采用的Rotation和Exemplar。
論文鏈接:Rotation
文章提出,通過訓練ConvNets來識別輸入圖像的2D旋轉來學習圖像特征。在質量和數量上證明了這個看似簡單的任務,實際上為語義特征學習提供了非常強大的監督信號。
論文鏈接:Exemplar
文章的思路是將無標簽的圖像進行旋轉、平移、增強等操作,組成不同的數據集合(同一圖像生成的圖像為同一數據集合),利用CNN將不同數據集合區分開。其目的是區分不同圖像并保證旋轉、平移等變換的魯棒性。
什么是Manifold Mixup?
論文鏈接:Manifold Mixup
是對mixup數據增強算法的一種改進算法,把輸入數據混合擴展到對中間隱層輸出混合。
在數據傳輸到了中間第k層的時候對數據進行mixup,輸出混合后的融合向量和新的label(當然實際上其操作的是向量,下圖是對mixup的可視化):
其具有三個優勢:1.平滑決策邊界 2.拉大低置信空間 3.展平隱層輸出的數值。
二、概述
本文發現,通過regularizing feature manifold和self-supervised techniques 可以有效提升小樣本學習的性能。并且分別在CIFAR-FS、CUB、mini-ImageNet三個數據集上進行了相關實驗,都取得了很好的效果,
三、主要貢獻
- regularization technique of Manifold Mixup 對數據分布的小變化具有魯棒性并且可以提高小樣本任務的性能。
- 在訓練過程中增加自我監督損失(本文使用rotation和exemplar)可以實現語義特征學習,并且顯著改善小樣本分類任務。
- 在通過自我監督任務豐富的特征流形上應用Manifold Mixup正則化,可以進一步提高小樣本任務性能。這就是本文提出的方法S2M2。
三、模型圖
第一階段:在base dataset上訓練一個Nb-way的分類器,在該階段有兩個損失,一個是分類損失classification loss一個是額外損失auxiliary loss。額外損失(auxiliary loss)來自Manifold Mixup regularization和self-supervision task of rotation and exemplar.
第二階段:在novel dataset上進行微調模型,凍結特征提取層,然后訓練一個新的Nn-way的分類器,在該階段只有classification loss.
四、對比實驗結果
本文在mini-ImageNet、tiered-ImageNet、CUB、CIFAR-FS四個數據集上進行了比較,可以看出S2M2取得了新的state-of-the-art。
五、原文鏈接
鏈接: link
總結
以上是生活随笔為你收集整理的读论文:Charting the Right Manifold:Manifold Mixup for Few-shot Learning的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 单细胞论文记录(part9)--Spat
- 下一篇: Coursera | Applied P