SLAM: Inverse Depth Parametrization for Monocular SALM
首語:
 
????????? 此文實現客觀的評測了使線性化的反轉深度的效果。整篇只在表明反轉可以線性化,解決距離增加帶來的增長問題,有多少優勢……%!
????????? 我的天呢!我竟然完整得翻譯了一遍。
 
??????? 使用標記點地圖構建SLAM的方法,有一種EKFmonocularSLAM的存在,可以不使用BA直接完成稀疏場景地圖重建,詳細方法和代碼見官網:http://www.openslam.org/
??????? EKF-SLAM使用EKF方法,所使用的方法參考兩篇論文:
Long Description
 ??? ??? This code contains a complete EKF SLAM system from a monocular sequence, taking as input a sequence from a monocular camera and estimating the 6 DOF camera motion and a sparse 3D map of salient point features. The key contributions in this code are two:
 
 ??????? 1)? INVERSE DEPTH POINT PARAMETRIZATION. This point model suits the projective nature of the camera sensor, allowing to code in the SLAM map very distant points naturally captured by a camera. It is also able to code infinite depth uncertainty, allowing undelayed initialization of point features from the first frame they were seen. At any step, the measurement equation shows the high degree of linearity demanded by the EKF.
 
 ? ? ? ? 2)? 1-POINT RANSAC. Robust data association has proven to be a key issue in any SLAM algorithm. 1-Point RANSAC is an algorithm based on traditional random sampling but adapted to the EKF. Specifically, it exploits probabilistic information from the EKF to greatly improve the efficiency over standard RANSAC.
 
 
?????? 本文翻譯第一篇:《 nverse Depth Parametrization for Monocular SALM 》
Inverse Depth Parametrization for Monocular SLAM
 Javier Civera, Andrew J. Davison, J.M.M Montiel, Member, IEEE
Abstract
?????We?present?a?new?parametrization?for?point?features?within?monocular?SLAM?which?permits?efficient?and?accurate?representation?of?uncertainty?during?undelayed?initialisation?and?beyond,?all?within?the?standard?EKF?(Extended?Kalman?Filter).?The?key?concept?is?direct?parametrization?of?the?inverse?depth?of?features?relative?to?the?camera?locations?from?which?they?were?first?viewed,?which?produces?measurement?equations?with?a?high?degree?of?linearity.?Importantly,?our?parametrization?can?cope?with?features?over?a?huge?range?of?depths,?even?those?which?are?so?far?from?the?camera?that?they?present?little?parallax?during?motion?—?maintaining?sufficient?representative?uncertainty?that?these?points?retain?the?opportunity?to?‘come?in’?smoothly?from?infinity?if?the?camera?makes?larger?movements.?Feature?initialization?is?undelayed?in?the?sense?that?even?distant?features?are?immediately?used?to?improve?camera?motion?estimates,?acting?initially?as?bearing?references?but?not?permanently?labeled?as?such.
 ?????The?inverse?depth?parametrization?remains?well?behaved?for?features?at?all?stages?of?SLAM?processing,?but?has?the?drawback?in?computational?terms?that?each?point?is?represented?by?a?six?dimensional?state?vector?as?opposed?to?the?standard?three?of?a?Euclidean?XYZ?representation.?We?show?that?once?the?depth?estimate?of?a?feature?is?sufficiently?accurate,?its?representation?can?safely?be?converted?to?the?Euclidean?XYZ?form,?and?propose?a?linearity?index?which?allows?automatic?detection?and?conversion?to?maintain?maximum?efficiency?—?only?low?parallax?features
 need?be?maintained?in?inverse?depth?form?for?long?periods.?We?present?a?real-time?implementation?at?30Hz?where?the?parametrization?is?validated?in?a?fully?automatic?3D?SLAM?system?featuring?a?hand-held?single?camera?with?no?additional?sensing.?Experiments?show?robust?operation?in?challenging?indoor?and?outdoor?environments?with?very?large?ranges?of?scene?depth,?varied?motion?and?also?real-time?360???loop?closing.
?Index?Terms—Real-time?vision,?monocular?SLAM.實時視覺,單目視覺。
????本文為單目SLAM方法?提出一個?點特征參數化的?新方法,?使用標準EKF方法為非延遲初始化完成有效和精確的表示。主要內容是(涉及到?初次探測的相機位置/世界坐標系)直接參數化?,產生一個高度線性的測量方程。?重要的是,我們的方法可以處理長程/長距離的特征,甚至一些遠到?移動期間視差很小的運動——并可維持?有效地表達?典型非確定性(在非特定情況下的有效表達)——若相機有一個長距離的移動(從離相機無限遠平滑地接近)。在需要即時進行提升相機估計的場景中可以做到無延遲的特征初始化,只是作為對照引用而非永久標記。
????深度反轉參數法在SLAM過程中所有的階段?保持良好的運行,但是在?計算(方面)?與?標準XYZ歐式表達相反?的標記六自由度狀態向量的每一個點(對比)時仍有缺點。?我們表明?一旦特征的深度估計?足夠精確,?其表示可以安全地轉換為標準歐式XYZ形式,并且?提出/生成?一個允許可保持最大效率的?自動探測和轉換——在相當長的時間內?只需要需要保留?很少的并行特征用于深度生成。?我們提出一個?實時的?可以達到30Hz(用于在自動3D場景SLAM過程)--單目手持(不附帶額外場景模式)的穩固的參數化過程?。實驗顯示算法在室內/室外場景中在360度閉環檢測中具有魯棒性。
I.?INTRODUCTION
?????單目攝像機是一個測量系列圖像投影的設備。給出移動攝像獲得的,?一個3維剛體物體的序列圖像,可以根據?一個比例因子?同時計算出整個場景和攝像機的移動。攝像機必須重復地觀測一個物體,每次獲取物體影像到圖像光心。從不同的視角獲取的圖像,計算出的(測定)的角度?為特征的視差——這就是允許/用于深度估計的參數。
????在離線SFM(移動中重建)文獻的解決方案(e.g.?[11],?[23])中,移動和結構從一系列圖像中被估計(?利用相鄰成對圖像中的魯棒特征?估計運動相關性)。然后一個優化方法?迭代地更新估計全局相機位置和場景特征位置(以至于特征投影盡可能地靠近他們的測量位置(光束法平差)?)。本著這種精神/源自于此種精髓?的一些方法?使用了滑窗過程替代全局優化,得到/演變出令人印象深刻的?“視覺里程法”解決方案,?已應用于立體圖像序列[21]?和單目圖像序列?[20](構建)。
????達到實時SFM的另一個途徑是在線SLAM方法,?利用一個概率濾波進行位置特征序列(地圖)和攝像機角度位置?的更新。SLAM方法相對于視覺里程法有特定的優勢和弱點,能夠利用有限的地圖特征構建連續和無漂移的全局地圖。核心算法為擴展卡爾曼濾波,(此方法)在多傳感器機器人中被證明,首次被應用于Davison?et?al.?[8]?[9]?實時單目重建?,其可以進行30Hz的稀疏重建。
????Davison’s?方法和類似方法的一個局限是,他們只能處理?小幅度相機-距離變化的圖像特征,并且要求具有顯著的視差。此問題在?非確定性深度估計(遠距離特征被初始化):采用?直接歐式XYZ方法參數化,當高斯分布應用于?EKF方法時?造成的位置不確定性的小視差特征,不能被較好地表達。這些特征的深度坐標有一個概率密度,?能明顯增強一個良定義的小深度值的尖峰,然而隨后逐漸縮小到無窮遠(以/從一個小視差測量),?這很難給出是否一個特征擁有10?個單位而不是100個、1000個或者更多。隨后的論文中我們偏向于直接的歐式XYZ坐標的使用。???
?????最近有一些較新的方法提出用于解決此類問題,依賴于(不被普遍需要的)新的特征。在此文中,我們提出一個新的特征參數化方法?能都平滑的用于所有深度的特征初始化——甚至是“無窮遠”,并直接使用標準EKF框架。關鍵內容是使用與攝像機位置相關的(第一次被)首先被觀測到特征?進行直接參數化。
A.?Delayed?and?Undelayed?Initialization??何時初始化?延遲還是不延遲?
????最常見的處理特征初始化的方法是,將處理新探測到的特征匯?從主地圖中抽離,在/從特定過程中(在嵌入整個使用標準XYZ表達的濾波器之前)從幾幀圖像中收集信息降低不確定性。這種延遲初始化策略?(e.g.?[8],?[14],?[3])有一樣缺陷?:維持在主要概率狀態之外的新特征,不能夠?對最終地圖中的相機位置估計做出貢獻(對?會存在的最終的地圖中的相機位置估計沒有效果)。更深刻地說,那些多幀仍持有較低視差的特征(那些遠離攝像機的塊,或者靠近移動?核/極點位置的塊)通常會被完全拒絕掉,?因為不能通過包含(可利用)測試?
????在延遲方法中Bailey?[2],初始化被推遲直到測量方程接近高斯,且點可以安全地被三角化時。如在2D中被提出和在模擬實驗中被驗證的,一個相似的方法(附有慣性傳感器的3D視覺)被提出?[3],?Davison引用一個新的特征[8](通過?嵌入一個3D半無限雷達?到主?地圖(表示了除了深度以外的各種特征)?),然后使用一個輔助粒子濾波器經過幾幀去清晰地更新深度,利用了高幀率序列的所有測量(除了在主狀態之外的狀態向量)。
????更近一段時間,幾個非延遲初始化的方法被提出,依然是使用一些特殊方法處理新進特征但?能夠立刻對攝像機位置估計產生效用,主要視角是?盡管帶有高度非確定深度的特征?對于估計相機轉換?提供的信息太少,但對方向估計有極大的as軸承/參考的作用。非延遲方法為Kwok?and?Dissanayake所提出?[15]?,是一個多假設方法,初始化特征到多深度,并在子序列未被觀察時進行剪枝。
????Sola?et?al.?[25],?[24]?描述了一個更為嚴格的非延遲方法?使用一個近似高斯和濾波器(通過聯合信息)使保持計算負載較低。一個重要的視點是擴展高斯深度假設(通過反轉深度到ray方向射線),在此方式上得到更好的表達。這種方法可能是?Davison的粒子算法和我們的反轉深度方法的墊腳石。(一個)高斯和?是比粒子更為有效的表達(足夠有效到各自的高斯可以被放入主狀態向量),但仍然不如單個的(使用反轉深度參數化的)高斯表達?;注意的是?[15]?nor?[25]?考慮特征在一個非常大的?“無限的”深度。
B.?Points?at?Infinity?無限遠點
????本文的一個主要動機/推進/改進?不僅是非延遲初始化,還包括處理所有深度的特征的需求,尤其是在室外場景。在SFM中,無窮遠點在相機變換時是表示為無視差的(因其為極限深度)。比如一個星星可能在一個圖像中表示為一個位置(盡管其在數千里之外移動了數千米)。這樣的特征不能被使用用于估計相機變化,但可以作為一個完美的軸承/參考用于旋轉估計。視覺投影幾何?的齊次坐標系(被正常使用?在SFM中的)可以清晰地表示無窮遠點,?并且在離線構建和姿態估計中?表示為一個?重要的角色。
?????在序列SLAM系統中,困難是?我們并不預先知道那些特征是無窮遠的,Montiel?and?Davison?[19]表示在特定的情況下所有的特征被認為是無窮遠的。——在大范圍的室外場景或者相機在三角桌上旋轉時,SLAM在純角度/極坐標系表現為實時攝像機視覺羅盤。?????在更一般的場合,讓我們想象一個相機穿越一個3D場景(即觀測一個長程的深度特征)。從點的視角估計開始,我們可以認為所有的特征從無限遠開始,并且“接近”?(隨著攝像機移動的足夠遠到)直到可以測量有效的視差。????在室內的場景中,僅僅幾分米的距離便足夠有效。遠距特征可能要求更多的米數或者數千米(在視差被觀測到之前),重要的是這些特征是并非長久地標記——一個看似無窮遠的特征,?應當一直有機會(通過移動足夠的距離)證明他的無限遠深度,否則在建立場景地圖時將會產生嚴重的同步錯誤。????我們的概率SLAM算法應當能夠表達看起來無限遠的深度的非特定性。在攝像機變化10個單位之后(若是特征比我們可以觀測到的視差更近)仍然觀測不到誤差,其不能告訴我們關于深度的任何信息—(他給出了可信賴的更低的邊界——這又依賴于相機造成的移動的數量)。這種對非確定性的清晰考慮并不被離線算法事先要求,但是對(實現起來)更困難的在線算法?非常重要。
C.?Inverse?Depth?Representation?反轉深度表達
???????Our?contribution?is?to?show?that?in?fact?there?is?a?unified?and?straightforward?parametrization?for?feature?locations?which?can?handle?both?initialisation?and?standard?tracking?of?both?close?and?very?distant?features?within?the?standard?EKF?framework.An?explicit?parametrization?of?the?inverse?depth?of?a?feature?along?a?semi-infinite?ray?from?the?position?from?which?it?was?first?viewed?allows?a?Gaussian?distribution?to?cover?uncertainty?in?depth?which?spans?a?depth?range?from?nearby?to?infinity,?and?permits?seamless?crossing?over?to?finite?depth?estimates?of?features?which?have?been?apparently?infinite?for?long?periods?of?time.??The?unified?representation?means?that?our?algorithm?requires?no?special?initialisation?process?for?features.?They?are?simply?tracked?right?from?the?start,?immediately?contribute?to?improved?camera?estimates?and?have?their?correlations?with?all?other?features?in?the?map?correctly?modeled.?Note?that?our?parameterization?would?be?equally?compatible?with?other?variants?of?Gaussian?filtering?such?as?sparse?information?filters.
????我們的貢獻是揭示事實上?對于特征定位(可以使用標準EKF框架?同時進行初始化和對近距離與極遠距離的標準追蹤)有一致(標準的)和直接的測參數化方法。一個清晰地對來自于正無窮半軸的特征的參數化(??這一句太長了,翻譯不了...)???????????????。統一的表達意味著我們的算法不要求對特征進行特別的初始化過程。特征一般從開始即被追蹤,立刻起作用于提升相機估計和正確對地圖建模的所有特征的聯系。?值得注意的是:我們的參數化過程能夠平穩兼容高斯濾波比如稀疏信息濾波器。
????我們引入線性索引并使用它分析和提升?對于全部低和高視差的深度反轉特征的表達能力。深度反轉算法的唯一的缺陷是:?不斷增長的狀態向量(我艸,不能丟幀嗎),因為反轉深度參數點需要記6個參數?而不是3個XYZ編碼。作為此問題的解決方案,我們展示了我們的線性索引(當特征可以安全地從反轉深度到標準XYZ?時,也可應用于XYZ參數化到信號)。反轉深度表達可以因此應用于小視差特征情形(當XYZ編碼從高斯分離時)。值得注意的是:這種“轉換”,不像延遲初始化方法,能夠直接減少計算負擔。(此時)SLAM精度帶有或者沒有轉換方法的效果是一樣的。
????事實上一個攝像機的投影性質意味著,圖像測量過程是接近線性的(在反轉深度坐標系中)(注釋:一個距離-大小反比關系)。反轉深度圖像是一個在計算機視覺中廣泛應用的概念:被譯為圖像差別和點的深度。?在立體視覺中:被譯為?(相對于無限遠中的平面的)視差(在[12]).?反轉深度圖像也用于表示被場景點集包含的相機移動速率(在光流分析法中)。在追蹤社區中,“修改后的極坐標系[1]?”依然探索了深度反轉表達的線性屬性(輕度不同但緊密相關的)問題:TMA?利用純相位法傳感器?(獲得的已知運動)收集(到的)測量數據?做目標運動分析。
????However,?the?inverse?depth?idea?has?not?previously?been?properly?integrated?in?sequential,?probabilistic?estimation?of?motion?and?structure.?It?has?been?used?in?EKF?based?sequential?depth?estimation?from?camera?known?motion?[16]?and?in?multibaseline?stereo?Okutomi?and?Kanade?[22]?used?the?inverse?depth?to?increase?matching?robustness?for?scene?symmetries;?matching?scores?coming?from?multiple?stereo?pairs?with?different?baselines?were?accumulated?in?a?common?reference?coded?in?inverse?depth,?this?paper?focusing?on?matchingrobustness?and?not?on?probabilistic?uncertainty?propagation.?In?[5]?Chowdhury?and?Chellappa?proposed?a?sequential?EKF?process?using?inverse?depth?but?this?was?some?way?short?of?full?SLAM?in?its?details.?Images?are?first?processed?pairwise?to?obtain?a?sequence?of?3D?motions?which?are?then?fused?with?an?individual?EKF?per?feature.
?????然而,反轉深度圖像沒有被正確的在序列圖像、運動和結構估計中融合使用。被應用于基于EKF的從已知攝像機移動進行序列深度圖像估計[16],在多基線立體視覺中Okutomi?and?Kanade?[22]使用深度反轉圖像去增加場景均勻匹配的魯棒程度。匹配得分?來自于從多基線收集的(在反轉深度中統一參考編碼的)多立體對。這篇文章聚焦于匹配魯棒性而不是概率不確定性推導/傳播。在?[5]?Chowdhury?and?Chellappa?提出一個序列EKF過程(使用反轉深度),但這只是SLAM過程中的一部分。從被首先處理的圖像對得到一個3D運動,融合到每個特征特定的EKF狀態。
????我們的與位置有關的反轉深度圖像的參數化(從首先被觀測到的特征)意味著高斯表達(必須)是特別地良表現的,這也是為什么在SFM的齊次坐標系中的單目SLAM的直接參數化不能給出一個好的結果。這些表示只能有效地表達(相對于坐標原點的)相對無限的點集。可以這樣說?我們定義的投影主體是獨立的,但對于每幀特征是相關的。另外一個有趣的對比是在我們的方法中間,每個被首先觀測到的包含相機位置的特征的表達和(平滑地/全局SLAM?方法的)所有的/歷史的傳感器的位姿估計被維持在一個濾波器中。
????兩個其他作者最近出版的文章?使用了與我們相似的方法。Trawny?and?Roumeliotis?在?[26]提出一個非延遲的初始化?為2D單目SLAM?編碼方式為一個三維點編碼為兩個投影射線。這種表達是過參數化的但允許非延遲初始化和編碼近距遠距特征,這個方法可用于同步驗證結果。
????Eade?and?Drummond?為單目視覺提出了一個深度反轉方法[10]?(使用他們的Fast?SLAM-based?system?的內容),給出了一些聲明(關于我們線性化的優勢)。每一個添加到地圖的新的部分初始化的特征的位置(通過?相對于初次觀察到的三坐標系(世界坐標系)?在各個方向上進行初始化,然后三坐標系更新(通過每一個地圖粒子的一系列卡爾曼濾波?進行更新)。?若是反轉深度估計崩潰/失效,則特征轉化為全初始化的標準XYZ表達。當保留的部分特征和全初始化的特征不同時,??使用部分初始化特征(?帶有未知深度信息?)?提高Camera方向和轉移估計(通過一個空間向量?更新步驟)。?他們的方法明顯適合?FastSLAM方法的執行,然而缺少(類似于我們文章中的)令人滿意的統一/標準?的參數化方法(的質量)——(部分初始化到全部初始化?不需要清晰地固定??所有用法,都是自動的且由可觀測到的測量信息組成)。
????本文提供了一個綜合的/廣泛地和擴展的視野(相對于我們前兩篇出版的論文[18]?[7])。我們現在提出一個全實時性的?深度反轉參數化的執行過程,可以達到50-70個特征(在臺式機上實時運行時)。實驗驗證顯示出精確的相機標定的重要性,可以提高系統表現尤其是對于廣角攝像機。我們的結果章節?包含了一個實時的實驗,包括?閉環檢測的(主要結果)。輸入測試圖像序列和顯示計算解決方案的視頻?作為多媒體材料?附加在論文里。
????第二部分專注于定義一個狀態向量,包括相機移動模型。XYZ點編碼和反轉深度點參數化,測量方程在第三部分被描述。第四部分陳述了一個討論關于測量方程的線性誤差。接著,一個特征的特征初始化細節在第五部分。在第六部分陳述反轉深度到標準XYZ,在第七部分我們陳述了實際圖像序列的實驗驗證?以30H的頻率(在大范圍環境中),包括了實時實驗和一個閉環檢測實驗。并提供指向視頻的鏈接。最后第八部分全文總結。
 
 
 
 
 
 
REFERENCES
[1]?V.?J.?Aidala?and?S.?E.?Hammel,?“Utilization?of?modified?polar?coordinates?for?bearing-only?tracking,”?IEEE?Trans.?Autom.?Control,?vol.?28,?no.?3,pp.?283–294,?Mar.?1983.
[2]?T.?Bailey,?“Constrained?initialisation?for?bearing-only?SLAM,”?in?Proc.?IEEE?Int.?Conf.?Robot.?Autom.,?Taipei,?Taiwan,?R.O.C.,?Sep.?14–19,?2003,?vol.?2,?pp.?1966–1971.
[3]?M.?Bryson?and?S.?Sukkarieh,?“Bearing-only?SLAM?for?an?airborne?vehicle,”?presented?at?the?Australasian?Conf.?Robot.?Autom.?(ACRA?2005),Sydney,?Australia.
[4]?G.?C.?Canavos,?Applied?Probability?and?Statistical?Methods.?Boston,?MA:?Little,?Brow,?1984.
[5]?A.?Chowdhury?and?R.?Chellappa,?“Stochastic?approximation?and?ratedistortion?analysis?for?robust?structure?and?motion?estimation,”?Int.?J.?Comput.?Vis.,?vol.?55,?no.?1,?pp.?27–53,?2003.
[6]?J.?Civera,?A.?J.?Davison,?and?J.M.M.Montiel,?“Dimensionless?monocular?SLAM,”?in?Proc.?3rd?Iberian?Conf.?Pattern?Recogn.?Image?Anal.,?2007,?pp.?412–419.
[7]?J.?Civera,?A.?J.?Davison,?and?J.?M.?M.?Montiel,?“Inverse?depth?to?depth?conversion?for?monocular?SLAM,”?in?Proc.?Int.?Conf.?Robot.?Autom.,?2007,?pp.?2778–2783.
[8]?A.?Davison,?“Real-time?simultaneous?localization?and?mapping?with?a?single?camera,”?in?Proc.?Int.?Conf.?Comput.?Vis.,?Oct.?2003,?pp.?1403–?1410.
[9]?A.?J.?Davison,?I.?Reid,?N.Molton,?and?O.?Stasse,?“Real-time?single?camera?SLAM,”?IEEE?Trans.?Pattern?Anal.Mach.?Intell.,?vol.?29,?no.?6,?pp.?1052–?1067,?Jun.?2007.
[10]?E.?Eade?and?T.?Drummond,?“Scalable?monocular?SLAM,”?in?Proc.?IEEE?Conf.?Comput.?Vis.?Pattern?Recogn.?Jun.?17–22,?2006,?vol.?1,?pp.?469–476.
[11]?A.?W.?Fitzgibbon?and?A.?Zisserman,?“Automatic?camera?recovery?for?closed?or?open?image?sequences,”?in?Proc.?Eur.?Conf.?Comput.?Vis.,?Jun.?1998,?pp.?311–326.
[12]?R.?I.?Hartley?and?A.?Zisserman,?Multiple?View?Geometry?in?Computer?Vision,?2nd?ed.?Cambridge,?U.K.:?Cambridge?Univ.?Press,?2004.
[13]?D.?Heeger?and?A.?Jepson,?“Subspace?methods?for?recovering?rigid?motion?I:?Algorithm?and?implementation,”?Int.?J.?Comput.?Vis.,?vol.?7,?no.?2,?pp.?95–117,?Jan.?1992.
[14]?J.?H.?Kim?and?S.?Sukkarieh,?“Airborne?simultaneous?localisation?and?map?building,”?in?Proc.?IEEE?Int.?Conf.?Robot.?Autom.?Sep.?14–19,?2003,?vol.?1,?pp.?406–411.
[15]?N.?Kwok?and?G.?Dissanayake,?“An?efficient?multiple?hypothesis?filter?for?bearing-only?SLAM,”?in?Proc.?IROS,?28?Sep.–2–Oct.?2004,?vol.?1,pp.?736–741.
[16]?L.?Matthies,?T.?Kanade,?and?R.?Szeliski,?“Kalman?filter-based?algorithms?for?estimating?depth?from?image?sequences,”?Int.?J.?Comput.?Vis.,?vol.?3,?no.?3,?pp.?209–238,?1989.
[17]?E.?Mikhail,?J.?Bethel,?and?J.?C.?McGlone,?Introduction?to?Modern?Photogrammetry.New?York:?Wiley,?2001.
[18]?J.?Montiel,?J.?Civera,?and?A.?J.?Davison,?“Unified?inverse?depth?parametrization?for?monocular?SLAM,”?presented?at?the?Robot.?Sci.?Syst.?Conf.,?Philadelphia,?PA,?Aug.?2006.
[19]?J.?Montiel?andA.?J.Davison,?“A?visual?compass?based?on?SLAM,”?in?Proc.?Int.?Conf.?Robot.?Autom.,?Orlando,?FL,May?15–19,?2006,?pp.?1917–1922.
[20]?E.?Mouragnon,?M.?Lhuillier,?M.?Dhome,?F.?Dekeyser,?and?P.?Sayd,?“Realtime?localization?and?3-D?reconstruction,”?in?Proc.?IEEE?Conf.?Comput.?Vis.?Pattern?Recogn.,?2006,?vol.?3,?pp.?1027–1031.
[21]?D.?Nister,?O.?Naroditsky,?and?J.?Bergen,?“Visual?odometry?for?ground?vehicle?applications,”?J.?Field?Robot.,?vol.?23,?no.?1,?pp.?3–26,?2006.
[22]?M.?Okutomi?and?T.?Kanade,?“A?multiple-baseline?stereo,”?IEEE?Trans.?Pattern?Anal.?Mach.?Intell.,?vol.?15,?no.?4,?pp.?353–363,?Apr.?1993.
[23]?M.?Pollefeys,?R.?Koch,?and?L.?Van?Gool,?“Self-calibration?and?metric?reconstruction?inspite?of?varying?and?unknown?intrinsic?camera?parameters,”?Int.?J.?Comput.?Vis.,?vol.?32,?no.?1,?pp.?7–25,?1999.
[24]?J.?Sola,?“Towards?visual?localization,?mapping?and?moving?objects?tracking?by?a?mobile?robot:?A?geometric?and?probabilistic?approach,”?Ph.D.?dissertation,?LAAS-CNRS,?Toulouse,?France,?2007.
[25]?J.?Sola,?A.?Monin,?M.?Devy,?and?T.?Lemaire,?“Undelayed?initialization?in?bearing?only?SLAM,”?in?Proc.?2005?IEEE/RSJ?Int.?Conf.?Intell.?Robots?Syst.,?2–6?Aug.,?2005,?pp.?2499–2504.
[26]?N.?Trawny?and?S.?I.?Roumeliotis,?“A?unified?framework?for?nearby?and?distant?landmarks?in?bearing-only?SLAM,”?in?Proc.?Int.?Conf.?Robot.?Autom.,?May?15–19,?2006,?pp.?1923–1929.
總結
以上是生活随笔為你收集整理的SLAM: Inverse Depth Parametrization for Monocular SALM的全部內容,希望文章能夠幫你解決所遇到的問題。
 
                            
                        - 上一篇: 微信能查看换头像次数!有人一年换66次
- 下一篇: 小米推出 2024 款 Redmi A
