Fast ORB-SLAM
點云PCL免費知識星球,點云論文速讀。
文章:FastORB-SLAM: Fast ORB-SLAM method with Coarse-to-Fine Descriptor Independent Keypoint Matching
作者:Qiang Fu12, Hongshan Yu1 , Xiaolong Wang
翻譯:particle
本文僅做學術分享,如有侵權,請聯系刪除。歡迎各位加入免費知識星球,獲取PDF論文,歡迎轉發朋友圈分享快樂。
論文閱讀模塊將分享點云處理,SLAM,三維視覺,高精地圖相關的文章。公眾號致力于理解三維視覺領域相關內容的干貨分享,歡迎各位加入我,我們一起每天一篇文章閱讀,開啟分享之旅,有興趣的可聯系微信dianyunpcl@163.com。
●論文摘要
基于特征點的視覺SLAM方法由于對不同環境的魯棒性越來越受歡迎。ORB-SLAM2是該領域的一種基準方法,但是ORB-SLAM2中描述子的計算非常耗時,并且必須選擇圖像作為關鍵幀,否則描述子無法重用。為了克服這些問題,本文提出了一種輕量型、高效率的fast orb-slam,可以在不需要計算描述子的情況下跟蹤相鄰幀之間的關鍵特征點。為此,提出了一種基于稀疏光流的由粗到細關鍵點描述子匹配方法。在第一階段,通過均加速度運動模型預測初始關鍵點對應關系,然后通過基于金字塔的稀疏光流跟蹤方法穩健地建立對應關系。在第二階段,利用運動平滑和極線約束來優化對應關系。特別是,本文的方法只計算關鍵幀的描述子。我們用一臺RGBD相機在TUM和ICL-NUIM數據集上測試Fast ORBSLAM,并將其精度和效率與現有的九種RGBD SLAM方法進行了比較。從定性和定量結果表明,該方法在精度上達到了最先進的性能,并且大約是ORB-SLAM2的兩倍。
●?相關工作與介紹
視覺SLAM在許多應用領域都越來越重要,如虛擬現實(VR)、增強現實(AR)、無人機(UAV)或無人車(UGV)導航和自主移動機器人。高精度和低計算成本是視覺slam的兩個核心要求。目前的方法分為基于光度的直接方法,例如DSO和SVO,以及基于特征的間接方法。直接法通過最小化像素的光度誤差來恢復姿態。間接方法利用圖像特征點,通過最小化特征點對應之間的重投影誤差來恢復相機姿態,并基于特征描述子實現回環檢測(重定位)以消除全局漂移。其中間接法的視覺SLAM中,ORB-SLAM2被認為是當前最先進的SLAM方法,它建立在許多優秀作品的基礎上,如first real-time Visual Slam、PTAM、fast place recognition、BoW2和高效的基于圖的捆集調整(BA)共視圖。我們注意到間接方法中關鍵點描述子的計算非常耗時,并且除了關鍵幀外,這些描述子不會被重用。這浪費了大量的計算資源。如果我們能夠在不計算相鄰幀之間計算描述子的情況下建立可靠的關鍵點對應關系,將大大降低計算成本而不損失精度。在此基礎上,本文提出了一種高效的輕量化視覺SLAM系統fast orb-slam。與ORB-SLAM2等間接方法不同,我們的方法只在幀被選為關鍵幀時計算描述子。
為了在沒有描述子的情況下建立可靠的關鍵點匹配,我們將關鍵點匹配方法分為兩個階段:
第一階段是魯棒關鍵點匹配,首先通過均勻加速度模型預測初始關鍵點對應關系,然后實現了基于金字塔的光流跟蹤算法,建立了魯棒的關鍵點對應關系。
第二階段是內點精匹配,首先利用運動平滑約束過濾出離群點,然后采用極線約束對匹配點進行再細化。
實現了一個完整而健壯的SLAM系統(直接或間接方法)應該包括三個線程:跟蹤、局部建圖和循環閉合。跟蹤運行在前端,實時輸出當前攝像機姿態。局部建圖和回環檢測在后臺非實時運行,通過局部或全局約束優化相機運動和結構。回環檢測是提高生命周期操作魯棒性的一個重要線程,因為它為糾正全局累積誤差提供了強大的約束,而且,當系統在某個時間無法跟蹤有效特征時,它可以用于重定位。無論是最小化光度誤差(直接方法)還是重投影誤差(間接方法),它都歸結為一個非線性最小二乘優化問題,可以通過BA有效地解決。一旦建立了對應關系,就可以通過BA優化來解決位姿估計或精化問題。因此,建立準確的特征對應關系對視覺系統具有極其重要的意義。
總之,我們的主要貢獻如下:
本文介紹了FastORB-SLAM,這是一個新穎、完整、輕量、健壯的SLAM系統,它是基于ORB-SLAM2和稀疏光流開發的,可以輸出高精度的3D姿態估計,如圖所示。
提出了一種新的由粗到精的關鍵點匹配方法,該方法可以在不需要描述子的情況下,在相鄰幀之間建立可靠的關鍵點對應關系。
我們研究了一個均勻加速模型來預測關鍵點對應,這不僅提高了關鍵點匹配的精度,而且潛在地減少了搜索匹配的計算量。
提出的Fast ORB SLAM使用RGBD攝像機作為輸入進行測試,幾乎所有具有代表性的開源RGB-D SLAM系統在定位精度(RMSE)和計算時間方面都超過了TUM和ICLNUIM數據集的十幾個數據集。定性和定量結果表明,該方法達到了SOTA的性能。
我們的方法比ORB-SLAM2快兩倍,定位精度也很好。
● 內容精華
系統介紹
Fast ORB SLAM,一個完整、健壯、重量輕的視覺SLAM系統。與ORB-SLAM2基于描述子匹配在相鄰幀中建立關鍵點對應關系不同,該系統采用由粗到細的描述子匹配方法。描述子只在選擇一幀作為關鍵幀時才計算,而ORB-SLAM2則為每一幀計算描述子。與SVO相比,主要有三點不同:
第一,我們的方法采用了不同的關鍵點檢測器;
第二,SVO由于沒有提取描述子而無法實現回環檢測;
第三,SVO通過直接最小化光度誤差來跟蹤關鍵點,以恢復運動,它有一個問題,如果關鍵點對應包含很多離群值,這些離群值將導致糟糕的定位精度。
相應地,我們的方法建立關鍵點對應關系,并通過顯式的由粗到細的關鍵點匹配方法處理異常值問題,然后通過最小化對應點之間的重投影誤差來恢復相機運動。
Fast ORB SLAM系統概述。FastORB SLAM基于ORB-SLAM2構建,由三個線程組成:跟蹤、局部建圖和回環檢測??焖俑櫣烙嫴崟r輸出6D攝像機姿態。局部建圖增加一個新的關鍵幀,并通過BA優化來優化局部關鍵幀?;丨h檢測就是不斷地檢查是否有回環,并用全局BA優化來修正漂移。建圖模塊包含關鍵幀、地圖點、可共視圖和生成樹等信息。壓縮模塊是為了高效計算而設計的,它保留了有用的觀測值,并及時剔除無用信息,避免了冗余計算。
連續幀上的關鍵點(inliers)示例。在檢測關鍵點之前,采用自適應直方圖均衡化算法對圖像進行預處理,以減少光照影響。從這個數字,我們的系統可以一直跟蹤足夠多的關鍵點。值得注意的是,如果inlier數足夠,我們不需要提取關鍵點,例如,我們只檢測第一列和最后一列中的關鍵點。在這個序列中,Fast ORB SLAM比ORB-SLAM2具有更好的定位精度,計算時間更少。
由粗到細關鍵點描述子的匹配方法
通過將三維地標投影到當前幀來預測特征點之間對應關系的圖示。
運動模型預測匹配初始值的偽代碼
觀察到時變序列中相鄰兩幀具有較小基線距離和亮度不變的特征點,在此基礎上,提出了一種由粗到細、與獨特描述子的兩階段特征點匹配方法來建立可靠的關鍵點對應關系。值得注意的是,僅當幀被選為關鍵幀時才提取描述子,由粗到精細匹配的方法分為兩個階段:
第一階段是魯棒的關鍵點匹配:
首先,通過一個有效的運動模型來預測關鍵點的對應關系,這給算法一個很好的匹配的初始值,并且潛在地減少了搜索匹配的計算量;
然后,基于稀疏光流算法,在8層金字塔結構中建立特征點的對應關系。更具體地說,我們在第一階段對所有關鍵點實現算法1,以穩健地建立粗略的關鍵點對應關系。
第二階段為內點精匹配階段:
首先利用攝像機運動平滑約束過濾出異常值;然后,采用基于RANSAC的基本矩陣法再次精細化特征點的相關系數。
● 實驗
該方法在跟蹤特征點的例子。我們為每個圖像檢測1000個關鍵點。在(a)中,左、右圖像分別表示參考幀和當前幀。(b) 和(c)分別代表了KTL和ours(w/motion model)的結果。(d) 表示內部細化后的結果,包括運動平滑和極線約束后的結果。
Ratio表示inliers比率,inliers數是極線約束驗證后當前幀上的關鍵點數。時間表示極線驗證的時間。
該方法比ORB-SLAM2定位精度高,計算量小。在其他數據集中,我們的方法也具有很強的競爭力。
在ICL NUIM Office 3(左)和ICL NUIM LIVEL 1(右)數據集中ORB-SLAM2和OUR的定位精度比較。頂行表示三維運動軌跡。最后一行給出了APE和RPE的誤差比較。從這個圖中,我們的方法比ORB-SLAM2在兩個數據集中產生了比ORB-SLAM2更好的精度,包括一個低紋理區域。
?從表中可以看出,我們的方法實現了SOTA性能
●總結
在本文中,我們提出了一個新穎的,輕量級的視覺SLAM系統fast orb-slam。該系統是基于ORB-SLAM2和光流算法開發的。與ORB-SLAM2相比,我們的方法在計算速度上有明顯的優勢,因為它不需要在跟蹤線程中提取描述子。在實驗中,我們證明了fast orb-slam可以在使用RGB-D相機的室內場景中產生SOTA性能,在定位精度和效率方面都是如此。與ORB-SLAM2相比,我們的方法運行速度幾乎是ORB-SLAM2的兩倍,具有很強的競爭力。
資源
三維點云論文及相關應用分享
【點云論文速讀】基于激光雷達的里程計及3D點云地圖中的定位方法
3D目標檢測:MV3D-Net
三維點云分割綜述(上)
3D-MiniNet: 從點云中學習2D表示以實現快速有效的3D LIDAR語義分割(2020)
win下使用QT添加VTK插件實現點云可視化GUI
JSNet:3D點云的聯合實例和語義分割
大場景三維點云的語義分割綜述
PCL中outofcore模塊---基于核外八叉樹的大規模點云的顯示
基于局部凹凸性進行目標分割
基于三維卷積神經網絡的點云標記
點云的超體素(SuperVoxel)
基于超點圖的大規模點云分割
更多文章可查看:點云學習歷史文章大匯總
SLAM及AR相關分享
【開源方案共享】ORB-SLAM3開源啦!
【論文速讀】AVP-SLAM:自動泊車系統中的語義SLAM
【點云論文速讀】StructSLAM:結構化線特征SLAM
SLAM和AR綜述
常用的3D深度相機
AR設備單目視覺慣導SLAM算法綜述與評價
SLAM綜述(4)激光與視覺融合SLAM
Kimera實時重建的語義SLAM系統
SLAM綜述(3)-視覺與慣導,視覺與深度學習SLAM
易擴展的SLAM框架-OpenVSLAM
高翔:非結構化道路激光SLAM中的挑戰
SLAM綜述之Lidar SLAM
基于魚眼相機的SLAM方法介紹
往期線上分享錄播匯總
第一期B站錄播之三維模型檢索技術
第二期B站錄播之深度學習在3D場景中的應用
第三期B站錄播之CMake進階學習
第四期B站錄播之點云物體及六自由度姿態估計
第五期B站錄播之點云深度學習語義分割拓展
第六期B站錄播之Pointnetlk解讀
[線上分享錄播]點云配準概述及其在激光SLAM中的應用
[線上分享錄播]cloudcompare插件開發
[線上分享錄播]基于點云數據的?Mesh重建與處理
[線上分享錄播]機器人力反饋遙操作技術及機器人視覺分享
[線上分享錄播]地面點云配準與機載點云航帶平差
點云PCL更多活動請查看:點云PCL活動之應屆生校招群
掃描下方微信視頻號二維碼可查看最新研究成果及相關開源方案的演示:
如果你對本文感興趣,請點擊“原文閱讀”獲取知識星球二維碼,務必按照“姓名+學校/公司+研究方向”備注加入免費知識星球,免費下載pdf文檔,和更多熱愛分享的小伙伴一起交流吧!
掃描二維碼
? ? ? ? ? ? ? ? ? ?關注我們
讓我們一起分享一起學習吧!期待有想法,樂于分享的小伙伴加入免費星球注入愛分享的新鮮活力。分享的主題包含但不限于三維視覺,點云,高精地圖,自動駕駛,以及機器人等相關的領域。
分享及合作:微信“920177957”(需要按要求備注)聯系郵箱:dianyunpcl@163.com,歡迎企業來聯系公眾號展開合作。
點一下“在看”你會更好看耶
總結
以上是生活随笔為你收集整理的Fast ORB-SLAM的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 最新开源LiDAR数据集LSOOD:四种
- 下一篇: Open3D面向机器学习的扩展库