SLAM学习--常用数据集
下面列舉幾個視覺SLAM常用的數據集。
參考鏈接:
視覺SLAM常用的數據集_編程芝士的博客-CSDN博客_slam數據集
常用的數據集有:KITTI數據集、EuRoC數據集、TUM數據集、Oxford數據集、ICL-NUIM數據集、RGBD Object數據集等等。
KITTI數據集
KITTI數據集由德國卡爾斯魯厄理工學院和豐田美國技術研究院聯合創辦,是目前國際上最大的自動駕駛場景下的計算機視覺算法評測數據集。該數據集用于評測立體圖像(stereo),光流(optical flow),視覺測距(visual odometry),3D物體檢測(object detection)和3D跟蹤(tracking)等計算機視覺技術在車載環境下的性能。KITTI包含市區、鄉村和高速公路等場景采集的真實圖像數據,每張圖像中最多達15輛車和30個行人,還有各種程度的遮擋與截斷。
下載地址:http://www.cvlibs.net/datasets/kitti/eval_object.php
EuRoC數據集
EuRoC數據集包含11個雙目序列,這些序列是由微型飛行器在兩個不同的房間和一個大型工業環境中飛行時記錄下來的。提供兩種類型的數據集:?第一個包含來自Leica多站的三維位置地面真值,并著重于視覺慣性的評估SLAM算法在一個真實的工業場景。
下載地址:kmavvisualinertialdatasets – ASL Datasets
TUM數據集
數據集包含一些室內的序列,在不同的紋理下,不同的光照和不同的結構條件,從RGB-D傳感器采集到的數據中分別去評估物體的重建和SLAM/視覺里程計的性能。TUM提供很多數據集,從各個有利位置捕獲對象,每個條目中包含圖像序列、相應的輪廓和完整的校準參數。
下載地址:Computer Vision Group - Dataset Download
Oxford數據集
對牛津的一部分連續的道路進行了上百次數據采集,收集到了多種天氣、行人和交通情況下的數據,也有建筑和道路施工時的數據,總的數據長度達1000小時以上。
下載地址:Oxford RobotCar Dataset
ICL-NUIM數據集
該集旨在對RGB-D、視覺測距和SLAM算法進行基準測試。兩個不同的場景(起居室和辦公室場景)提供了基本事實。客廳具有3D表面地面實況以及深度圖和相機姿勢,因此完美地適用于不僅用于標記相機軌跡而且還用于重建。辦公室場景僅帶有軌跡數據,并且沒有任何明確的3D模型。
下載地址:ICL-NUIM RGB-D Benchmark Dataset
RGB-D對象數據集
RGB-D對象數據集是300個常見家庭對象的大型數據集。這些對象被分為51個類別。該數據集使用Kinect風格的3D相機來記錄,該相機以30Hz記錄同步和對準的640x480 RGB和深度圖像。拍攝時將每個物體放置在轉盤上旋轉一整圈并捕獲視頻序列。對于每個對象,有3個視頻序列,每個視頻序列都安裝在不同高度的攝像機上,以便從與地平線不同的角度觀察對象。
下載地址:RGB-D (Kinect) Object Dataset
3D Model Gallery
Capture, share, and collaborate in immersive 3D
Capture, share, and collaborate the built world in immersive 3D
3D Tour Gallery | Matterport
全球最大的3D數據集公開了!標記好的10800張全景圖
Middlebury數據集 http://vision.middlebury.edu/stereo/data/??
全球最大的3D數據集公開了!標記好的10800張全景圖 - mydddfly - 博客園
【動態SLAM】動態環境數據集匯總TUM RGB-D數據集由在不同的室內場景使用Microsoft Kinect傳感器記錄的39 個序列組成https://mp.weixin.qq.com/s?__biz=MzU1NjEwMTY0Mw==&mid=2247552263&idx=1&sn=606b76bdc57ba4b65dcc0974d8ddb4e3&chksm=fbc87463ccbffd75628ce24f1dcbd72f3dd3240b13d15842581d39b245258e64d4db55eb3c43&mpshare=1&scene=23&srcid=04097MfkNzZB6o6GgKy0lS3T&sharer_sharetime=1649509948571&sharer_shareid=a928a59f1cbe91e61cbb0171dae67c99#rd
?
1、TUM數據集
TUM RGB-D數據集由在不同的室內場景使用Microsoft Kinect傳感器記錄的39 個序列組成。
包含了Testing and Debugging(測試),Handheld SLAM(手持SLAM),Robot SLAM(機器人SLAM),Structure vs. Texture(結構 vs 低紋理),Dynamic Objects(動態物體),3D Object Reconstruction(三維物體重建),Validation Files(驗證集),Calibration Files(標定文件)幾種針對不同任務的數據集,每個種類有包含多個數據,可以用于多種任務的性能測試。其groundtruth通過光學捕捉系統獲得。
其中的Dynamic Objects中包含了9個包含groundtrth的數據集,以及每個每種軌跡的驗證集。該數據集涵括了四種相機運動姿態(xyz、rpy、halfsphere、static),以及兩種動態程度(sitting、walking)。
該動態數據集被廣泛應用于動態SLAM系統的定位精度評估,如DynaSLAM、DsSLAM等都以該數據集為主要評測對象。值得一提的是,該網站還自帶了在線評測工具,將自己的軌跡上傳即可獲得各項指標。
論文:A benchmark for the evaluation of RGB-D SLAM systems
數據集地址:
https://vision.in.tum.de/data/datasets/rgbd-dataset/download
在線測評工具:
https://vision.in.tum.de/data/datasets/rgbd-dataset/online_evaluation
2、KITTI數據集
KITTI數據集由德國卡爾斯魯厄理工學院和豐田美國技術研究院聯合創辦,是目前國際上最大的自動駕駛場景下的計算機視覺算法評測數據集。該數據集用于評測立體圖像(stereo),光流(optical flow),視覺測距(visual odometry),3D物體檢測(object detection)和3D跟蹤(tracking)等計算機視覺技術在車載環境下的性能。
KITTI數據集的數據采集平臺裝配有2個灰度攝像機,2個彩色攝像機,一個Velodyne 64線3D激光雷達,4個光學鏡頭,以及1個GPS導航系統。
其中visual odometry中包含的22個道路環境中采集的雙目視頻序列,可以用來評估SLAM系統在戶外動態環境下的定位性能(以及運動物體跟蹤性能)。
目前,包括Dyna SALAMII、VDO-SLAM等著名的戶外動態SLAM系統都是用了該數據集進行性能評估。此外,考慮到這些軌跡中有回環的部分,一些研究回環檢測的人員制作了某些序列(00、02、05、06、07、08、09、13、15、16、18、19)中的回環真值,可以用來研究動態環境下回環檢測的內容。
數據集地址:
http://www.cvlibs.net/datasets/kitti/raw_data.php
回環真值:
http://www.robesafe.com/personal/roberto.arroyo/downloads.html
3、Bonn
ReFusion是一個出色的、不采用深度學技術的、可以運行在動態環境中的三位實時重建系統。在該論文中,他們采集了自己的數據集,包括9種場景的24個視頻序列,比TUM動態數據集的場景更加豐富,也更及復雜。
他們用專業的地面激光雷達采集了環境靜態部分的高分辨率點云,然后將點云對齊到我們的運動捕捉系統。
之后RGB-D傳感器的參考坐標系轉換為運動捕捉系統的參考坐標系。目前,該數據集逐漸被一些三位重建的論文所采用。
部分場景如下圖所示,可以看到,場景中動態的物體各不相同,而且運動方式也不一樣,是極具挑戰性的。
論文:ReFusion: 3D Reconstruction in Dynamic Environments for RGB-D Cameras Exploiting Residuals
代碼地主:
https://github.com/PRBonn/refusion
數據集地址:
http://www.ipb.uni-bonn.de/data/rgbd-dynamic-dataset/
4、DRE-SLAM論文數據集
DRE-SLAM是一個融合輪式里程計信息和視覺信息的SLAM系統,可以運行在動態的環境下,為輪式差速機器人設計。為了評估該算法的在實際環境中的性能,作者制作并公開了所制作的的數據集。
實驗平臺為一個裝有Kinetc深度相機的輪式機器人Redbot,為了獲得該機器人的運動軌跡,作者在房間上方放置了相機來捕獲二維軌跡。值得注意的是,該數據集用rosbag tool錄制數據,且錄制的軌跡僅包含二維平面的運動信息。
作者在論文中提到,其共錄制了三種場景(Office、Lib、Corner)、三種狀態(Static、Low Dynamic、High Dynamic)共27個數據集,但只公開了Office場景下的9個數據集。
由于論文發布比較晚,且只有平面的運動軌跡,目前使用該數據集的進行評估的論文還比較少。部分場景如下圖所示:
5、Dynamic-Scenes
場景中的動態物體不僅會影響SLAM短期的定位精度(幀間運動估計),還會影響長期定位性能(回環檢測)。陳等人提出了一種SLCD進行回環檢測,并發布了用于戶外動態環境下回環檢測的數據集。
他們在道路環境中用ZED相機制作了兩段數據,包括CBD與Road Ring。
其中CBD的軌跡為一個環形,回環只有一處。Road Ring的軌跡有多處回環,且回環處存在多出動態物體,很適合研究動態動態場景對場景識別的影響。
但是該數據集并沒有給相機的參數,且沒有軌跡的groungtruth,目前并不能直接使用,可信度并不是很高。
論文:Semantic Loop Closure Detection with Instance-Level Inconsistency Removal in Dynamic Industrial Scenes
數據集地址:
https://github.com/HaoshengChen/Dynamic-Scenes
總結
以上是生活随笔為你收集整理的SLAM学习--常用数据集的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 人工智能-机器学习=深度学习-其他
- 下一篇: SLAM学习--2D激光SLAM-圣经-