ICCV 2017 UCT:《UCT: Learning Unified Convolutional Networks forReal-time Visual Tracking》论文笔记
? 理解出錯之處望不吝指正。
? 本文模型叫做UCT。就像論文題目一樣,作者提出了一個基于卷積神經網絡的end2end的tracking模型。模型的整體結構如下圖所示(圖中實線代表online tracking過程,虛線框內和虛線表示離線訓練過程和在第一幀進行訓練):
???
? 模型的目的是從樣本中學習出一系列convolution filter ,則在樣本上進行卷積得到的卷積response為(其中代表channel數):
???
? 則損失函數可以寫為:
???
? 在測試階段,可以看作:
???
?
-
? 作者把模型的訓練過程分為兩部分:
? (1).off-line training
??? 這部分訓練即為在訓練集上最小化損失函數,不同的是,由于最后一幀中的目標位置經常不在cropped patch的中心,所以作者將train patch cropped with jittering(抖動)。
? (2).traing on first frame
??? 這部分訓練的目的是使模型適應于跟蹤特定的目標。在訓練時,虛線框內的權值使用均值為0的高斯分布進行隨機初始化,然后使用SGD進行訓練。
?
-
? Online Tracking的過程主要包括以下兩部分:
? (1).Model update
??? 作者認為在每一幀或者固定間隔幀進行更新是不合理的,于是作者提出了一個定義,PNR(peak-versus-noise ratio):
?????
??? 這里分母表示對response map中除去峰值的地方求均值。
??? 當以下兩個閾值都被滿足的時候,才進行模型的更新。
?????
? (2).Scale estimation
??? 這部分作者使用了DSST中一樣的尺度估計方法,下面回顧一下。
?????
??? ①.在第一幀中以目標正中間為中心,截取S張不同尺度的圖像,每張圖像提取一個d維的特征向量,得到S*d的特征矩陣;
??? ②.構造相關圖g,大小為S*1,中間值最大,向兩端遞減;
??? ③.計算出尺度濾波模板h;
??? ④.對于當前幀,選取S張不同尺度的圖像,和位置估計一樣,計算出當前幀的相關圖g,響應最大值對應的尺度即為估計的尺度。
總結
以上是生活随笔為你收集整理的ICCV 2017 UCT:《UCT: Learning Unified Convolutional Networks forReal-time Visual Tracking》论文笔记的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: CVPR 2017 ECO:《ECO:
- 下一篇: ICCV 2017 DSiam:《Lea