Apollo进阶课程⑳丨Apollo感知之旅——机器学习与感知的未来
目錄
1機器學習
可解釋性是否需要
其它算法
2感知的未來
Sensor迭代
深度學習+仿真數據+AI芯片
智能交通設施
3思考
原文鏈接:進階課程?丨Apollo感知之旅——機器學習與感知的未來
自動駕駛感知中的機器學習最大問題在于系統對模塊的要求與普通的機器學習不同。
從自動駕駛安全性角度考慮,系統對感知的準確率、召回率和響應延時要求很高。例如在自動駕駛中的感知機器學習出現一些障礙物的漏檢、誤檢會帶來安全問題。漏檢會帶來碰撞,影響事故;誤檢會造成一些急剎,帶來乘車體驗的問題。同時要求低延時,如果一秒以后才獲得感知結果,可能無人車已經碰上障礙物。
上周阿波君為大家詳細介紹了「進階課程?Apollo感知之旅——感知算法」。
感知算法根據使用的傳感器不同而不同。根據激光雷達Lidar點云感知,詳細介紹了兩個檢測算法啟發式的Ncut和深度學習算法CNNSeg。對于視覺感知,深度學習了檢測和分割技術、跟蹤技術,2D-to-3D技術以及多相機融合技術,以及紅綠燈檢測算法、Radar檢測和超聲波檢測算法。
本周阿波君將與大家分享Apollo感知之旅——感知中的機器學習。下面,我們一起進入進階課程第20期。
1機器學習
機器學習里面存在一個普遍的假設,訓練集和測試集是獨立同分布的,如果測試和訓練沒有任何關系,測試效果是沒有任何保證的。但是無人車感知的訓練集是封閉的,而測試集是開放的。
測試是在開放道路進行的,如果遇到新的障礙物,在訓練中從來沒見過,怎么處理?例如,在城市道路上很少見到卡車,但是高速會遇到很多卡車,而且卡車上的東西也很多,如果機器學習模型沒見過這些障礙物,很有可能帶來一些錯誤。
可解釋性是否需要
無人車的安全需要可解釋,出現一個Bad case需要說清責任,需要搞清Bad case是由什么原因導致的,以便改進。
自動駕駛中深度學習模型需要更好的可解釋性,歸結為如何評估模型讓用戶知道模型是安全的?模型更新后如何做回歸測試?模型的應用邊界在哪里?目前,大家認為可解釋性可以通過測試來體現,如果大量測試得到相同的結果,那么原理是不是真正的可解釋也就沒那么重要。
其它算法
在感知模塊中,除了做基本的檢測、分割之外,還有后處理階段等由公式表示的幾何計算問題,是不需要深度學習的。另外,Common? sense也不需要深度學習,而且深度學習的效果不好,我們需要其他算法。那么,深度學習模型帶來一個結果,其他啟發算法給一個結果,怎么來融合?現在主要是基于Double check來提升安全性,還需要其他方法來進行更好的融合。
除了深度學習還需要其他的機器學習方法。如果數據量小,特征很難從原始數據學習,深度學習的效果可能就受到影響,因此諸如SVM或者隨機森林這些機器學習算法,可能需要結合場景選擇。
2感知的未來
Sensor迭代
如果在自動駕駛的研究中,發現某一類傳感器在感知或者其他模塊中具有很大的價值。那么,整個資本市場會投入很多人力、財力研發傳感器。隨著量產之后,傳感器的成本就會大幅下降,更新換代就比較快。
深度學習+仿真數據+AI芯片
深度學習已經證明了在感知中有很大的作用,但是計算量很大,專門研究車載AI芯片是對這一問題的很好解決方案。
現在很耗時的CNN模型以后都不是瓶頸,而且定制AI芯片的功耗可以足夠低,滿足車載需求。深度學習需要大量數據的問題,可以通過仿真來彌補。目前,點云仿真相對簡單一些,圖像仿真相對困難點。如果仿真這條路可以走通,那么仿真+深度學習不斷循環迭代,是非常有前景的。
智能交通設施
目前,自動駕駛都是在車上安裝傳感器進行感知,感知的范圍、魯棒性都有待提高。如果將這套傳感器布置在道路上、燈上,讓它們來感知,然后將實時結果傳輸給無人車。如果車上的傳感器失靈,那么路面上的傳感器會告知無人車障礙物信息,保證系統安全性。另外在駕駛環境中部署傳感器可以拓展感知距離,做到足夠安全,提前告知遠處的信息。
3思考
這里列了五個課后思考題:
- 前面技術介紹時說的開放問題,大家可以思考。例如Corner? case的處理。
- 前向和后向的安全感知距離如何計算?
- 延時是如何來影響自動駕駛安全的?
- ACC自適應巡航的功能是如何實現的?ACC這些功能主要是用哪些傳感器來實現的?原理是什么?
- 推導Pitch角對距離誤差的影響,假設Pitch角標定的時候,有0.1度的誤差,請推導對距離估計有多大的影響?
總結
以上是生活随笔為你收集整理的Apollo进阶课程⑳丨Apollo感知之旅——机器学习与感知的未来的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 交行信用卡积分兑换 万种礼品任你选
- 下一篇: 炒外汇是什么意思?什么是外汇?