【机器学习】 - 关于合适用均方误差(MSE)何时用交叉熵(cross-entropy)
生活随笔
收集整理的這篇文章主要介紹了
【机器学习】 - 关于合适用均方误差(MSE)何时用交叉熵(cross-entropy)
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
分類問題用交叉熵,回歸問題用均方誤差。
至于原因,可以看看它們的函數式,主要是兩種損失函數對分類和回歸結果誤差的衡量的方式不同。比如,交叉熵,在分類時(熱編碼),如果分類正確,則損失值為零,否則就有個較大的損失值,然后反向傳播,能夠更好地更新權重;同理,均方誤差mse,則是用來測算距離,很好地衡量了預測的實數值和事實值之間的數值大小的差異程度,如果很大,則bp之后權重更新會較為明顯,反之,則只是微調權重。
綜上,這兩種損失函數,都是為了更好地衡量你的真實結果與預測結果之間的差異的。
(但是logistic回歸為啥就不能MSE只能交叉熵?是屬于特例嘛?)
參考鏈接:
https://blog.csdn.net/weixin_41888969/article/details/89450163
https://www.cnblogs.com/xiaoboge/p/9656216.html
https://www.zhihu.com/question/320490312/answer/654084489
總結
以上是生活随笔為你收集整理的【机器学习】 - 关于合适用均方误差(MSE)何时用交叉熵(cross-entropy)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 地板价按不住了!本周国内油价或迎今年最大
- 下一篇: 信用卡申请平台 信用卡申请方法