js 计算任意凸多边形内最大矩形_题库 | 计算机视觉常见面试题型介绍及解答 第 7 期...
生活随笔
收集整理的這篇文章主要介紹了
js 计算任意凸多边形内最大矩形_题库 | 计算机视觉常见面试题型介绍及解答 第 7 期...
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
- 計算機視覺 -為什么說 Dropout 可以解決過擬合?(1)取平均的作用:?先回到標準的模型即沒有 dropout,我們用相同的訓練數據去訓練 5 個不同的神經網絡,一般會得到 5 個不同的結果,此時我們可以采用 “5 個結果取均值” 或者 “多數取勝的投票策略” 去決定最終結果。例如 3 個網絡判斷結果為數字 9, 那么很有可能真正的結果就是數字 9,其它兩個網絡給出了錯誤結果。這種 “綜合起來取平均” 的策略通常可以有效防止過擬合問題。因為不同的網絡可能產生不同的過擬合,取平均則有可能讓一些 “相反的” 擬合互相抵消。dropout 掉不同的隱藏神經元就類似在訓練不同的網絡,隨機刪掉一半隱藏神經元導致網絡結構已經不同,整個 dropout 過程就相當于對很多個不同的神經網絡取平均。而不同的網絡產生不同的過擬合,一些互為 “反向” 的擬合相互抵消就可以達到整體上減少過擬合。(2)減少神經元之間復雜的共適應關系:?因為 dropout 程序導致兩個神經元不一定每次都在一個 dropout 網絡中出現。這樣權值的更新不再依賴于有固定關系的隱含節點的共同作用,阻止了某些特征僅僅在其它特定特征下才有效果的情況 。迫使網絡去學習更加魯棒的特征 ,這些特征在其它的神經元的隨機子集中也存在。換句話說假如我們的神經網絡是在做出某種預測,它不應該對一些特定的線索片段太過敏感,即使丟失特定的線索,它也應該可以從眾多其它線索中學習一些共同的特征。從這個角度看 dropout 就有點像 L1,L2 正則,減少權重使得網絡對丟失特定神經元連接的魯棒性提高。(3)Dropout 類似于性別在生物進化中的角色:物種為了生存往往會傾向于適應這種環境,環境突變則會導致物種難以做出及時反應,性別的出現可以繁衍出適應新環境的變種,有效的阻止過擬合,即避免環境改變時物種可能面臨的滅絕關于 dropout 需要知道什么?直觀認識:Dropout 隨機刪除神經元后,網絡變得更小,訓練階段也會提速;事實證明,dropout 已經被正式地作為一種正則化的替代形式;有了 dropout,網絡不會為任何一個特征加上很高的權重(因為那個特征的輸入神經元有可能被隨機刪除),最終 dropout 產生了收縮權重平方范數的效果;Dropout 的功能類似于 L2 正則化,但 Dropout 更適用于不同的輸入范圍;如果你擔心某些層比其它層更容易過擬合,可以把這些層的 keep-prob 值設置的比其它層更低;Dropout 主要用在計算機視覺領域,因為這個領域我們通常沒有足夠的數據,容易過擬合。但在其它領域用的比較少;Dropout 的一大缺點就是代價函數不再被明確定義,所以在訓練過程中,代價函數的值并不是單調遞減的;使用時,先關閉 Dropout,設置 keep-prob 為 1,使代價函數的值單調遞減,然后再打開 Dropout;Dropout 與 L1 和 L2 正則化有什么區別?L1 和 L2 正則化通過在損失函數上增加參數的懲罰項,通過對參數大小的約束,起到類似降維的作用(若高階項參數接近 0,相當于降階)。進而簡化模型,提高模型泛化力,避免過擬合。L1 和 L2 正則化修改代價函數,Dropout 修改神經網絡本身。評價指標有哪些?機器學習中評價指標:Accuracy(準確率)、 Precision(查準率或者精準率)、Recall(查全率或者召回率)。目標檢測的指標:識別精度,識別速度,定位精度。a、目標檢測中衡量識別精度的指標是 mAP(mean average precision)。多個類別物體檢測中,每一個類別都可以根據 recall 和 precision 繪制一條曲線,AP 就是該曲線下的面積,mAP 是多個類別 AP 的平均值。b、? 目標檢測評價體系中衡量定位精度的指標是 IoU,IoU 就是算法預測的目標窗口和真實的目標窗口的交疊(兩個窗口面積上的交集和并集比值)非極大值抑制算法步驟非極大值抑制算法(Non-maximum suppression,NMS)在目標檢測中經常用到。我們的檢測算法可能對同一目標產生多次檢測的結果,非極大值抑制算法可以保證每個目標只檢測一次,找到檢測效果最好的框。(1)去除所有預測框置信度于某個閾值的框,這里的閾值選取為 0.5。(2)在剩下的 1、2、4、5、6 號框中選取置信度最大的,即圖中 5 號框,比較除 5 號框以外所有框于 5 號框的交并比,若交并比大于某個閾值(人工給定的值),則抑制這些不是局部極大值預測框輸出。(3)再從剩下的框中選取置信度最大的,重復上面的步驟,直至沒有框被舍去時結束。(4)最后 2 號和 5 號框被保留,其他框被抑制。若檢測物體是多個類別的時候,一般情況是對每個類別分別做一次非極大值抑制算法。斜著的矩形框如何求 iou?兩個多邊形的框如何求 iou?首先要求解兩個多邊形的面積,方法見該鏈接關鍵在于如何求出交集的面積思路一:蒙特卡洛 + 采樣,近似求解交集的面積,但是中間涉及判斷點在不在多邊形內,判斷點是否在多邊形內思路二:適合于兩個凸多邊形(非凸沒想到好的思路),凸多邊形可以看做是半平面的交集,因此兩個凸多邊形的交集,可以看作是(m+n)個半平面的交集(假設兩個凸多邊形分別有 m 個頂點和 n 個頂點),求出來半平面的交集(仍舊是一個凸多邊形)之后,求解該多邊形的面積即可。求解半平面交集RPN 的平移不變形如何解決?在計算機視覺中的一個挑戰就是平移不變性:比如人臉識別任務中,小的人臉 (24*24 的分辨率) 和大的人臉 (1080*720) 如何在同一個訓練好權值的網絡中都能正確識別。若是平移了圖像中的目標,則建議框也應該平移,也應該能用同樣的函數預測建議框。傳統有兩種主流的解決方式:第一、對圖像或 feature map 層進行尺度 \ 寬高的采樣;第二、對濾波器進行尺度 \ 寬高的采樣 (或可以認為是滑動窗口).但 Faster R-CNN 解決該問題的具體實現是:通過卷積核中心 (用來生成推薦窗口的 Anchor) 進行尺度、寬高比的采樣,使用 3 種尺度和 3 種比例來產生 9 種 anchor。RPN 生成候選框樣本不均衡有什么問題?為了訓練速度和訓練精度的平衡,原始圖像進入訓練之前需要先進行 resize,使圖像的短邊為 600(或者長邊為 1000);? 在訓練過程產生的 anchor 中,忽視掉所有的超過圖像邊界的 anchor:如在 1000*600 的圖像中,大概會有 20000(60*40*9)個 anchor,去除掉超過邊界的 anchor 之后,還剩 6000 個。論文中提到:若是不去除這些 anchor 的話,它們會帶來大量的、難以糾正的錯誤,并且導致訓練 loss 難以收斂。而在測試過程中,對于超出邊界的 anchor 并不是刪除,而是修剪掉其超過邊界的部分。? RPN 得到的大量 proposal 可能會相互重疊,冗余度較高,論文根據這些 proposal 的 cls 得分對其區域采用非極大值抑制(NMS)去除冗余 proposal,經過 NMS 后每張圖還剩下大概 2000 個 proposal。經過實驗,NMS 并不會降低檢測的準確度,但是大量減少了無關的 proposal。
- 對每個標定的 ground true box 區域,與其重疊比例最大的 anchor 記為正樣本 (保證每個 ground true 至少對應一個正樣本 anchor)
- 對 1 中剩余的 anchor,如果其與某個標定區域重疊比例 (IoU) 大于?0.7,記為正樣本(每個 ground true box 可能會對應多個正樣本 anchor。但每個正樣本 anchor 只可能對應一個 grand true box);如果其與任意一個標定的重疊比例都小于?0.3,記為負樣本。
- 對 1、2 剩余的 anchor,棄去不用。
- 跨越圖像邊界的 anchor 棄去不用。
計算機視覺常見面試題型介紹及解答
第一期?|?第二期?|?第三期?|?第四期?|?第五期?| 第六期
?阿里算法崗位最新編程題介紹及解析
第一期?|?第二期?|?第三期?|?第四期?|?第五期?|?第六期?|?第七期
騰訊算法工程師筆試真題介紹及解析匯總合集
第一期?|?第二期?|?第三期?|?第四期?|?第五期?|?
與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的js 计算任意凸多边形内最大矩形_题库 | 计算机视觉常见面试题型介绍及解答 第 7 期...的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 暗黑3死灵法师加点
- 下一篇: 新浪微博什么是微任务?