【机器学习】Softmax和Sigmoid
如果你在開發一個音樂分類的應用,需要對k種類型的音樂進行識別,那么是選擇使用 softmax 分類器呢,還是使用 logistic 回歸算法建立 k 個獨立的二元分類器呢?
這一選擇取決于你的類別之間是否互斥,例如,如果你有四個類別的音樂,分別為:古典音樂、鄉村音樂、搖滾樂和爵士樂,那么你可以假設每個訓練樣本只會被打上一個標簽(即:一首歌只能屬于這四種音樂類型的其中一種),此時你應該使用類別數 ?k=4?的softmax回歸。(如果在你的數據集中,有的歌曲不屬于以上四類的其中任何一類,那么你可以添加一個“其他類”,并將類別數 k 設為5。)
如果你的四個類別如下:人聲音樂、舞曲、影視原聲、流行歌曲,那么這些類別之間并不是互斥的。例如:一首歌曲可以來源于影視原聲,同時也包含人聲 。這種情況下,使用4個二分類的 logistic 回歸分類器更為合適。這樣,對于每個新的音樂作品 ,我們的算法可以分別判斷它是否屬于各個類別。
現在我們來看一個計算視覺領域的例子,你的任務是將圖像分到三個不同類別中。(i) 假設這三個類別分別是:室內場景、戶外城區場景、戶外荒野場景。你會使用sofmax回歸還是 3個logistic 回歸分類器呢? (ii) 現在假設這三個類別分別是室內場景、黑白圖片、包含人物的圖片,你又會選擇 softmax 回歸還是多個 logistic 回歸分類器呢?
在第一個例子中,三個類別是互斥的,因此更適于選擇softmax回歸分類器 。而在第二個例子中,建立三個獨立的 logistic回歸分類器更加合適。
http://deeplearning.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92
?
一、共同點
1、取值范圍都是0~1區間,表示概率,概率自然是這個取值范圍
2、都可以用來作為分類任務的輸出層函數
二、不同點
1、sigmod作為輸出層函數時解決的二分類任務,輸出值是一個小數;除此之外可以用作隱層的激活函數(激活函數是解釋神經網絡非線性的核心原因)
2、softmax是二分類任務的推廣,用于解決多分類問題,輸出值是一組小數,有幾類就有幾個小數,相加為1。
https://blog.csdn.net/sinat_19559525/article/details/80350687
?
| 公式?? | ||
| 定義域 | 一維向量 | 單個數值 |
| 值域 | [ 0 , 1 ] | ( 0 , 1 ) |
| 理解 | 可以將輸出看做是離散的概率分布 | 非線性映射 |
| 任務 | 多分類 | 二分類 |
| 結果特征 | 1. 結果是一個一維向量 2. 這個向量的和一定是1 | 1. 結果是一個數值 2.?為某個正數 |
?
再貼幾個可以幫助理解的鏈接:
http://www.mamicode.com/info-detail-2315826.html
https://baijiahao.baidu.com/s?id=1636737136973859154
?
?
總結:
如果模型輸出為非互斥類別,且可以同時選擇多個類別,則采用Sigmoid函數計算該網絡的原始輸出值。
如果模型輸出為互斥類別,且只能選擇一個類別,則采用Softmax函數計算該網絡的原始輸出值。
?
總結
以上是生活随笔為你收集整理的【机器学习】Softmax和Sigmoid的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 对比2000年,美国的GDP翻了1倍,印
- 下一篇: 突然吐字不清_要注意说话吐字不清小心是脑