【AI-1000问】为什么LeNet5倒数第二个全连接层维度为84?
文章首發于微信公眾號《有三AI》
【AI-1000問】為什么LeNet5倒數第二個全連接層維度為84?
為什么LeNet5倒數第二個全連接層維度為84?
相信大家也都知道LeNet5這個經典的卷積神經網絡,它有3個全連接層,輸出維度分別是120,84,10,不知道大家知不知道為什么倒數第2個全連接層的維度是84呢?
作者/編輯 言有三
?
LeNet5的網絡結構如下。
作為一個用于手寫數字識別的網絡,它的最后輸出是1*10的向量,而倒數第2層卻不是我們熟悉的4096,1024,512這樣的2的指數次冪的維度,而是84,那這是為什么呢。
解答:因為在計算機中字符的編碼是ASCII編碼,這些圖是用7*12大小的位圖表示的,也就是高寬比為7:12,如下圖,選擇這個大小可以用于對每一個像素點的值進行估計。
就這么簡單,不過既然來了就多說兩句吧。
上圖顯示了ASCII中的96個可打印字符,其中32是空格,不可見。
另外0~31以及127是控制字符/通信字符,控制字符如:LF(換行)、CR(回車)、DEL(刪除)等;通信字符如:SOH(文頭)、EOT(文尾)、ACK(確認)等,這兩類字符是不可打印的。
?
思考
是不是很粗暴的設定,居然跟位圖的大小有關。通常我們現在設定全連接層的維度都會是2的指數次冪或者最終分類數,不知道你有沒有見過一些其他的設定?不妨留言交流。
轉載文章請后臺聯系
侵權必究
感謝各位看官的耐心閱讀,不足之處希望多多指教。后續內容將會不定期奉上,歡迎大家關注有三公眾號 有三AI!
總結
以上是生活随笔為你收集整理的【AI-1000问】为什么LeNet5倒数第二个全连接层维度为84?的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【AI-1000问】为什么深度学习图像分
- 下一篇: 【完结】总结12大CNN主流模型架构设计