学习记录之Focal loss
生活随笔
收集整理的這篇文章主要介紹了
学习记录之Focal loss
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
目標檢測中,會有大量的負樣本,也就是背景樣本,如果使得正樣本對loss的影響更大,是focal loss提出來解決的方案。
作者以二分類為例進行說明:?
首先是我們常使用的交叉熵損失函數:
??
? ?
要對類別不均衡問題對loss的貢獻進行一個控制,即加上一個控制權重即可,最初作者的想法即如下這樣,對于屬于少數類別的樣本,增大α即可 :
?
但這樣有一個問題,它僅僅解決了正負樣本之間的平衡問題,并沒有區分易分/難分樣本,因此后面有了如下的形式:?
顯然,樣本越易分,pt越大,則貢獻的loss就越小,相對來說,難分樣本所占的比重就會變大。因此,通過這個公式區分了易分/難分樣本,在實際中,作者采用如下公式,即綜合了上述兩個公式的形式
?
轉載于:https://www.cnblogs.com/ChrisInsistPy/p/9669499.html
總結
以上是生活随笔為你收集整理的学习记录之Focal loss的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: sql常用函数
- 下一篇: 火狐浏览器不执行alert的问题