深度学习(计算机视觉)面试中问题(二)
博主在前面一篇博客,已經(jīng)把面試問到的問題敘述了11個(gè),接下來把最近遇到的問題拿出來分享,回答的的不對,麻煩指正,謝謝。前面一篇博客為:深度學(xué)習(xí)面試常問問題(一)
1、1*1卷積作用。
答:1. 實(shí)現(xiàn)跨通道的交互和信息整合
2. 進(jìn)行卷積核通道數(shù)的降維和升維
3、實(shí)現(xiàn)多個(gè)feature map的線性組合,實(shí)現(xiàn)通道個(gè)數(shù)的變換。
4、對特征圖進(jìn)行一個(gè)比例縮放。
2、CNN池化層有什么作用?
答:1、減小圖像尺寸,數(shù)據(jù)降維。
2、緩解過擬合。
3、保持一定程度的旋轉(zhuǎn)和平移不變性,MaxPooling能保證卷積神經(jīng)網(wǎng)絡(luò)在一定范圍內(nèi)平移特征能得到同樣的激勵(lì),具有平移不變形。
3、卷積神經(jīng)網(wǎng)絡(luò)中空洞卷積的作用是什么?
答、空洞卷積也叫擴(kuò)張卷積,在保持參數(shù)個(gè)數(shù)不變的情況下增大了卷積核的感受野,同時(shí)它可以保證輸出的特征映射(feature map)的大小保持不變。一個(gè)擴(kuò)張率為2的3×3卷積核,感受野與5×5的卷積核相同,但參數(shù)數(shù)量僅為9個(gè)。
4、深度學(xué)習(xí)中常用的損失函數(shù)?
答:交叉熵?fù)p失,平方差損失,絕對值損失,Hinge Loss。具體介紹:損失函數(shù)具體介紹
5、 Sigmoid激活函數(shù)為什么會(huì)出現(xiàn)梯度消失?Sigmoid函數(shù)導(dǎo)數(shù)的最大值出現(xiàn)在哪個(gè)值?
答:為什么會(huì)出現(xiàn)梯度消失,從兩方面來看,首先先看本身函數(shù),若輸入值X過大,sigmoid函數(shù)導(dǎo)數(shù)為零,第二方面:sigmoid函數(shù)求導(dǎo),導(dǎo)數(shù)最大是等于1/4,小于1,經(jīng)過深的網(wǎng)絡(luò)傳遞就會(huì)出現(xiàn)梯度消失的問題。
在x=0時(shí)導(dǎo)數(shù)最大。
6.faster rcnn是怎么樣一個(gè)框架?
答:有一篇博客講的挺清楚的。rcnn系列詳解
7、faster rcnn,roi pooling具體是如何工作的?(如何把不同大小的框,pooling到同樣的大小)
答、RoIPool首先將浮點(diǎn)數(shù)值的RoI量化成離散顆粒的特征圖,然后將量化的RoI分成幾個(gè)空間的小塊(spatial bins),最后對每個(gè)小塊進(jìn)行max pooling操作生成最后的結(jié)果。
8、評價(jià)指標(biāo)有哪些?
答、機(jī)器學(xué)習(xí)中評價(jià)指標(biāo): Accuracy(準(zhǔn)確率)、 Precision(查準(zhǔn)率或者精準(zhǔn)率)、Recall(查全率或者召回率)。
目標(biāo)檢測的指標(biāo):識(shí)別精度,識(shí)別速度,定位精度。
a、目標(biāo)檢測中衡量識(shí)別精度的指標(biāo)是mAP(mean average precision)。多個(gè)類別物體檢測中,每一個(gè)類別都可以根據(jù)recall和precision繪制一條曲線,AP就是該曲線下的面積,mAP是多個(gè)類別AP的平均值。
b、? 目標(biāo)檢測評價(jià)體系中衡量定位精度的指標(biāo)是IoU,IoU就是算法預(yù)測的目標(biāo)窗口和真實(shí)的目標(biāo)窗口的交疊(兩個(gè)窗口面積上的交集和并集比值)
9、深度學(xué)習(xí)訓(xùn)練時(shí)網(wǎng)絡(luò)不收斂的原因有哪些?如何解決?
答:不收斂一般都是數(shù)據(jù)不干凈,學(xué)習(xí)率設(shè)置不合理,網(wǎng)絡(luò)等問題,詳細(xì)知識(shí)根據(jù)博主的經(jīng)驗(yàn)和看的的別人一些經(jīng)驗(yàn)整理了下,
不收斂的原因與解決辦法
10、如何應(yīng)對圖像光照變化大?
答:1、直方圖均衡化
2、對比度拉伸,或者調(diào)節(jié)
3、若受光源影響,使得圖片整體色彩往一方面移動(dòng),用白平衡算法進(jìn)行修正,使其發(fā)黃、發(fā)藍(lán)、發(fā)紅的照片更加趨于自然光下的圖像
4、若是過爆或者過暗,可是設(shè)計(jì)閾值函數(shù),不用全局閾值,對特定區(qū)域進(jìn)行特定閾值分割。
5、若是太暗,可以采用對數(shù)變化,對數(shù)圖像增強(qiáng)是圖像增強(qiáng)的一種常見方法,其公式為: S = c log(r+1),對數(shù)使亮度比較低的像素轉(zhuǎn)換成亮度比較高的,而亮度較高的像素則幾乎沒有變化,這樣就使圖片整體變亮。
6、采用拉普拉斯算子增強(qiáng) , filter2D(src,dst)
?
11、常用的分割方法有哪些?
答:1、基于閾值的分割方法:比較常用的閡值法有大律法、最小誤差法
2、基于邊緣的分割方法:常見的微分算子包括Robert算子、Prewitt算子、Sobel算子、Laplaeian算子、Canny算子等
3、基于區(qū)域的分割方法:主要包括種子區(qū)域生長法、區(qū)域分裂合并法和分水嶺法等幾種類型。
4、基于圖論的分割方法:Graph Cut方法
5、深度學(xué)習(xí):語義分割等
————————————————
原文鏈接:https://blog.csdn.net/comway_Li/article/details/82947716
總結(jié)
以上是生活随笔為你收集整理的深度学习(计算机视觉)面试中问题(二)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 深度学习(计算机视觉)面试中问题(一)
- 下一篇: 计算机视觉面试常见问题(含解答)