目标检测之Softer-NMS
一、目標檢測之Softer-NMS
Bounding Box Regression with Uncertainty for Accurate Object Detection
- 論文鏈接:https://arxiv.org/abs/1809.08545
 - 論文翻譯:https://blog.csdn.net/weixin_42662134/article/details/88967206
 - 論文詳解:https://blog.csdn.net/lcczzu/article/details/86518615
 - 論文代碼:https://github.com/yihui-he/softer-NMS
 
二、Softer-NMS算法
1、論文動機
目前NMS會出問題的情況:
1)所有的候選包圍框都不夠精確(這時候該選擇哪一個?或者有沒有可能綜合這些候選框的信息提高精度?);
2)擁有高的分類分數的候選包圍框不精確(如何更有效地評價候選框的定位精度?)
如下圖:
 
 圖中(a)展示了2個均在某些坐標不精確的候選包圍框,(b)展示了定位精度高的候選框分類分數較低。
以上檢測失敗的例子都表明,定位置信度并不是與分類置信度強相關(事實上好的分類器應該對定位信息不敏感)。
2、論文算法思想
- 首先假設預測的bounding box的是高斯分布:
 - ground truth bounding box是狄拉克delta分布(既標準方差為0的高斯分布極限):
上個式子里面的delta分布是當高斯分布的σ趨于0時的極限分布,大概就是這樣:
當σ越小,曲線越瘦高,當σ非常小的時候,幾乎是一條豎直的線,同時σ越小,表示越確定,因此1?σ可以作為置信度的。 
網絡架構:
 
KL 散度用來衡量兩個概率分布的非對稱性度量,KL散度越接近0代表兩個概率分布越相似。
論文提出的KL loss,即為最小化Bounding box regression loss,即Bounding box的高斯分布和ground truth的狄拉克delta分布的KL散度。直觀上解釋,KL Loss使得Bounding box預測呈高斯分布,且與ground truth相近。而將包圍框預測的標準差看作置信度。
 我們估計值的高斯分布,對應藍色和灰色的曲線。橙色的曲線是ground-truth對應的狄拉克函數。當預測bbox位置沒被估計準確,我們期望預測結果有更大的方差,這樣Lreg會比較低(藍色)。
使用KL loss進行回歸:
 
 最終推導后損失函數:
 
 為了避免梯度爆炸,我們的網絡實際中預測的是α=log(σ2)α=log(σ2),而不是σ;
var voting(方差投票):
得到上述置信度,即可以在Soft NMS后進一步改進,將大于一定重疊度閾值Nt的候選包圍框根據置信度加權平均。(因為在訓練的時候尋求包圍框預測的方差小,所以這一步加權平均后不會出現框出來“四不像”的情況)
 
 計算過程如下:
 
結果
 
總結
以上是生活随笔為你收集整理的目标检测之Softer-NMS的全部內容,希望文章能夠幫你解決所遇到的問題。
                            
                        - 上一篇: 国外企业电子邮箱大全,国外用邮箱哪个好?
 - 下一篇: 5款国产ARM芯片替代ST