Paper之IEEERSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议RSJ智能机器人与系统国际会议机器人技术:科学与系统机器人学报)历年最佳论文简介及其解读
Paper之IEEE&RSJ:2009年~2019年機(jī)器人技術(shù)(IEEE機(jī)器人和自動(dòng)化國際會(huì)議&RSJ智能機(jī)器人與系統(tǒng)國際會(huì)議&機(jī)器人技術(shù):科學(xué)與系統(tǒng)&機(jī)器人學(xué)報(bào))歷年最佳論文簡介及其解讀
?
?
?
目錄
會(huì)議期刊來源
論文介紹
Robotic Pick and Place of Novel Objects in Clutter with Multi Affordance Grasping and Cross Domain Image Matching通過多 affordance 抓取和跨域圖像匹配完成雜亂環(huán)境下對(duì)新物體的撿放操作
Using Simulation and Domain Adaptation to Improve Efficiency of Deep Robotic Grasping使用仿真和領(lǐng)域適應(yīng)來提高深度機(jī)器人抓取的效率
Dex Net 2.0: Deep Learning to Plan Robust Grasps with Synthetic Point ?Clouds and Analytic Grasp Metrics ?Dex-Net 2.0:利用合成點(diǎn)云進(jìn)行魯棒抓取和分析抓取指標(biāo)的深度學(xué)習(xí)
Deep Predictive Policy Training using Reinforcement Learning深度預(yù)測(cè)策略的強(qiáng)化學(xué)習(xí)訓(xùn)練方法 ?
Learning Agile and Dynamic Motor Skills for Legged Robots ?面向腿式機(jī)器人的敏捷動(dòng)態(tài)特性的技能學(xué)習(xí) ?
Making Sense of Vision and Touch: Self Supervised Learning of ?Multimodal Representations for Contact Rich Tasks ?理解視覺和觸覺:接觸任務(wù)多模態(tài)表達(dá)的自監(jiān)督學(xué)習(xí) ?
A Magnetically Actuated Untethered Jellyfish Inspired Soft ?Milliswimmer ?一個(gè)受水母啟發(fā)的磁力驅(qū)動(dòng)軟體游泳機(jī)器人 ?
Robust Visual-Inertial State Estimation with Multiple Odometries and Efficient Mapping on an MAV with Ultra-Wide FOV Stereo Vision魯棒多測(cè)度視覺慣性狀態(tài)估計(jì)及其在具有超廣角立體視覺的微型飛行器上的高效映射
?
?
相關(guān)文章
AI之Robot:機(jī)器人Robot的簡介、發(fā)展歷史、案例應(yīng)用之詳細(xì)攻略
Paper之IEEE&RSJ:2009年~2019年機(jī)器人技術(shù)(IEEE機(jī)器人和自動(dòng)化國際會(huì)議&RSJ智能機(jī)器人與系統(tǒng)國際會(huì)議&機(jī)器人技術(shù):科學(xué)與系統(tǒng)&機(jī)器人學(xué)報(bào))歷年最佳論文簡介及其解讀
?
會(huì)議期刊來源
| IEEE International Conference on Robotics and Automation | IEEE機(jī)器人和自動(dòng)化國際會(huì)議 |
| IEEE/RSJ International Conference on Intelligent Robots and Systems | IEEE/RSJ智能機(jī)器人與系統(tǒng)國際會(huì)議 |
| Robotics: Science and Systems·A Robotics Conference | 機(jī)器人技術(shù):科學(xué)與系統(tǒng)·機(jī)器人技術(shù)會(huì)議 |
| IEEE Transactions on Robotics | IEEE機(jī)器人學(xué)報(bào) |
?
?
論文介紹
Robotic Pick and Place of Novel Objects in Clutter with Multi Affordance Grasping and Cross Domain Image Matching
通過多 affordance 抓取和跨域圖像匹配完成雜亂環(huán)境下對(duì)新物體的撿放操作
| 論文作者 | Andy Zeng, Shuran Song, Kuan-Ting Yu, Elliott Donlon, Francois R. Hogan, Maria Bauza, Daolin Ma, Orion Taylor, Melody Liu, Eudald Romo, Nima Fazeli, Ferran Alet, Nikhil Chavan Dafle, Rachel Holladay, Isabella Morona, Prem Qu Nair, Druck Green, Ian Taylor, Weber Liu, Thomas Funkhouser, Alberto Rodriguez |
| 論文地址 | IEEE International Conference on Robotics and Automation, 2018 https://ieeexplore.ieee.org/abstract/document/8461044 |
| 論文摘要 | 本文介紹了一種在雜亂環(huán)境中能夠抓取和識(shí)別已知和新奇物體的機(jī)器人拾取和放置系統(tǒng)。該系統(tǒng)的關(guān)鍵新特性是,它可以處理廣泛的對(duì)象類別,而不需要針對(duì)新對(duì)象的任何特定于任務(wù)的訓(xùn)練數(shù)據(jù)。為了實(shí)現(xiàn)這一目標(biāo),首先使用一種不確定類別的啟示預(yù)測(cè)算法在四種不同抓取原語行為中進(jìn)行選擇。然后,它通過一個(gè)跨域圖像分類框架來識(shí)別選中的對(duì)象,該框架將觀察到的圖像與產(chǎn)品圖像相匹配。由于產(chǎn)品圖像可以很容易地用于廣泛的對(duì)象(例如,從web上),因此該系統(tǒng)可以開箱即用地用于新對(duì)象,而不需要任何額外的訓(xùn)練數(shù)據(jù)。詳盡的實(shí)驗(yàn)結(jié)果表明,我們的多啟示抓取算法對(duì)雜波中各種各樣的目標(biāo)都有較高的成功率,我們的識(shí)別算法對(duì)已知和新抓取的目標(biāo)都有較高的準(zhǔn)確率。這種方法是麻省理工-普林斯頓團(tuán)隊(duì)系統(tǒng)的一部分,該系統(tǒng)在2017年亞馬遜機(jī)器人挑戰(zhàn)賽的裝載任務(wù)中獲得了第一名。所有代碼、數(shù)據(jù)集和預(yù)先訓(xùn)練的模型都可以在http://arc.cs.princeton.edu上在線獲得 |
| 研究問題 | 人類可以在僅掌握少量先驗(yàn)知識(shí)的前提下識(shí)別和抓取陌生目標(biāo)物,這一能力 ?一直是機(jī)器人研究的靈感來源,也是很多實(shí)際應(yīng)用的核心。為此,提出一種能在 ?雜亂環(huán)境下對(duì)新目標(biāo)物進(jìn)行識(shí)別和撿放操作的機(jī)器人系統(tǒng),整個(gè)系統(tǒng)可直接用于 ?新目標(biāo)物(在測(cè)試過程中首次出現(xiàn)),而無需額外的數(shù)據(jù)收集或重新訓(xùn)練,如下 ?圖所示。 |
| 研究方法 | 專門設(shè)計(jì)該機(jī)器人識(shí)別撿放系統(tǒng),該系統(tǒng)由兩部分組成:1)具有四個(gè)基礎(chǔ) ?行為的多模式抓取框架,該框架使用深度卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)來預(yù)測(cè)場(chǎng)景 ?affordance,而無需事先對(duì)目標(biāo)物進(jìn)行分割和分類。2)跨域圖像匹配框架,用于 ?通過將抓取的對(duì)象與產(chǎn)品圖像進(jìn)行匹配來識(shí)別抓取的對(duì)象,該框架使用了 ?ConvNet 架構(gòu),該架構(gòu)可直接用于新目標(biāo)物而無需重新進(jìn)行訓(xùn)練。這兩部分互相 ?配合,可以在雜亂的環(huán)境中完成對(duì)新目標(biāo)物的抓取操作。 ? 新物體的識(shí)別框架如下圖所示。訓(xùn)練一個(gè)雙流的卷積神經(jīng)網(wǎng)絡(luò),其中一個(gè)流 ?計(jì)算得到產(chǎn)品圖像的 2048 維特征向量,而另一個(gè)流計(jì)算得到觀察圖像的 2048 維 ?特征向量,并對(duì)兩個(gè)流進(jìn)行優(yōu)化,以使相同圖像的特征更加相似,反之則不同。 ?在測(cè)試期間,已知對(duì)象和新對(duì)象的圖像都映射到公共特征空間上。通過在相同的 ?特征空間找到與其最近的特征來匹配來識(shí)別它們。 |
| 研究結(jié)果 | 提出一種系統(tǒng),該系統(tǒng)能夠以很少的先驗(yàn)信息(少數(shù)產(chǎn)品圖片)來拾取和識(shí) ?別新對(duì)象。該系統(tǒng)首先使用與類別無關(guān)的 affordance 預(yù)測(cè)算法在四種不同的抓取 ?動(dòng)作元之間進(jìn)行選擇,然后通過將抓取的對(duì)象與它們的產(chǎn)品圖像進(jìn)行匹配來識(shí)別 ?抓取的對(duì)象。通過評(píng)估證明,該機(jī)器人系統(tǒng)可以拾取并在雜亂無章的環(huán)境中識(shí)別 ?出新物體。 |
?
?
?
Using Simulation and Domain Adaptation to Improve Efficiency of Deep Robotic Grasping
使用仿真和領(lǐng)域適應(yīng)來提高深度機(jī)器人抓取的效率
| 論文作者 | Konstantinos Bousmalis, Alex Irpan, Paul Wohlhart, Yunfei Bai, Matthew ?Kelcey, Mrinal Kalakrishnan, Laura Downs, Julian Ibarz, Peter Pastor, Kurt Konolige, ?Sergey Levine, Vincent Vanhoucke |
| 論文地址 | 論文出處:IEEE International Conference on Robotics and Automation, 2018 論文地址:https://ieeexplore.ieee.org/document/8460875 |
| 論文摘要 | 檢測(cè)和收集帶注釋的視覺抓取數(shù)據(jù)集來訓(xùn)練現(xiàn)代機(jī)器學(xué)習(xí)算法是非常耗時(shí)和昂貴的。一種吸引人的替代方法是使用現(xiàn)成的模擬器來呈現(xiàn)合成數(shù)據(jù),并為其自動(dòng)生成底層真值注釋。不幸的是,單純根據(jù)模擬數(shù)據(jù)訓(xùn)練的模型常常不能推廣到現(xiàn)實(shí)世界。我們研究如何將隨機(jī)模擬環(huán)境和領(lǐng)域適應(yīng)方法擴(kuò)展到訓(xùn)練抓取系統(tǒng)從原始單眼RGB圖像中抓取新的目標(biāo)。我們對(duì)我們的方法進(jìn)行了廣泛的評(píng)估,總共有超過25000個(gè)物理測(cè)試掌握,研究了一系列的模擬條件和領(lǐng)域適應(yīng)方法,包括一種新的擴(kuò)展的像素級(jí)領(lǐng)域適應(yīng),我們稱之為GraspGAN。我們表明,通過使用合成數(shù)據(jù)和領(lǐng)域適應(yīng),我們能夠?qū)?shí)現(xiàn)給定性能水平所需的真實(shí)世界樣本數(shù)量減少50倍,只使用隨機(jī)生成的模擬對(duì)象。我們還表明,僅使用未標(biāo)記的真實(shí)世界數(shù)據(jù)和我們的GraspGAN方法,我們獲得了真實(shí)世界中沒有任何標(biāo)簽的抓取性能,與939,777個(gè)標(biāo)記的真實(shí)世界樣本的抓取性能相似。 |
| 研究問題 | 收集帶注釋的視覺抓取數(shù)據(jù)集以訓(xùn)練現(xiàn)代機(jī)器學(xué)習(xí)算法可能是非常耗時(shí)的。 ?一個(gè)替代方法是使用現(xiàn)成的模擬器來合成數(shù)據(jù),這樣就可以自動(dòng)產(chǎn)生這些數(shù)據(jù)的 ?真實(shí)標(biāo)注。不幸的是,僅基于模擬數(shù)據(jù)訓(xùn)練的模型通常無法泛化到現(xiàn)實(shí)世界。研 ?究如何將隨機(jī)模擬環(huán)境和域適應(yīng)方法應(yīng)用到真實(shí)場(chǎng)景,訓(xùn)練一種抓取系統(tǒng),可以 ?通過原始 RGB 圖像中進(jìn)行規(guī)劃,抓取新的目標(biāo)物。 |
| 研究方法 | 研究模擬環(huán)境中的 3D 目標(biāo)模型、模擬的場(chǎng)景和模擬的動(dòng)力學(xué)如何影響機(jī)器 ?人最終的抓取性能,以及將模擬與真實(shí)場(chǎng)景集成以實(shí)現(xiàn)最大程度的遷移。具體方 ?法如上圖所示。 ? |
| 研究結(jié)果 | 研究將模擬數(shù)據(jù)合并到基于學(xué)習(xí)的抓取系統(tǒng)中的方法,以提高抓取性能并減 ?少數(shù)據(jù)需求。通過使用合成數(shù)據(jù)和域適應(yīng),僅使用少量隨機(jī)生成的模擬數(shù)據(jù),就 ?可以達(dá)到給定性指標(biāo)的 50 倍。還表明,僅使用未標(biāo)注的真實(shí)數(shù)據(jù)和 GraspGAN ?的方法,就可以在沒有任何真實(shí)數(shù)據(jù)標(biāo)注的情況下獲得與真實(shí)世界相同的抓取性 ?能。 |
?
?
?
Dex Net 2.0: Deep Learning to Plan Robust Grasps with Synthetic Point ?Clouds and Analytic Grasp Metrics ?
Dex-Net 2.0:利用合成點(diǎn)云進(jìn)行魯棒抓取和分析抓取指標(biāo)的深度學(xué)習(xí)
| 論文作者 | Bohg Jeffrey Mahler, Jacky Liang, Sherdil Niyaz, Michael Laskey, Richard ?Doan, Xinyu Liu, Juan Aparicio Ojea, and Ken Goldberg ? |
| 論文地址 | 論文出處:Robotics: Science and Systems, 2017 ? 論文地址:https://arxiv.org/pdf/1703.09312.pdf |
| 論文摘要 | 為了減少對(duì)健壯機(jī)器人抓取計(jì)劃進(jìn)行深度學(xué)習(xí)的數(shù)據(jù)收集時(shí)間,我們研究了從Dex-Net 1.0中數(shù)以千計(jì)的3D模型生成的670萬點(diǎn)云、抓取和分析抓取指標(biāo)的合成數(shù)據(jù)集進(jìn)行的隨機(jī)擺拍訓(xùn)練。我們使用得到的數(shù)據(jù)集dx - net 2.0來訓(xùn)練一個(gè)抓取質(zhì)量卷積神經(jīng)網(wǎng)絡(luò)(GQ-CNN)模型,該模型可以快速預(yù)測(cè)從深度圖像抓取成功的概率,其中抓取指定為相對(duì)于RGB-D傳感器的爪的平面位置、角度和深度。實(shí)驗(yàn)了1000次試驗(yàn)在ABB弓比較掌握規(guī)劃方法扣帶回對(duì)象表明GQ-CNN訓(xùn)練只有合成數(shù)據(jù)從Dex-Net 2.0可以用來計(jì)劃掌握在0.8秒93%的成功率與敵對(duì)的幾何和8個(gè)已知的對(duì)象是3倍的速度比注冊(cè)點(diǎn)云的預(yù)先計(jì)算的數(shù)據(jù)集和索引把握對(duì)象。Dex-Net 2.0抓取計(jì)劃在包含10個(gè)新剛性對(duì)象的數(shù)據(jù)集上也擁有最高的成功率,在包含40個(gè)新家居對(duì)象的數(shù)據(jù)集上實(shí)現(xiàn)了99%的精度(69個(gè)抓取中有一個(gè)假陽性被歸類為魯棒),其中一些對(duì)象是鉸接的或可變形的。代碼、數(shù)據(jù)集、視頻和補(bǔ)充材料可以在http://berkeleyautomation.github找到 |
| 研究問題 | 為了減少采用深度學(xué)習(xí)進(jìn)行魯棒機(jī)器人抓取策略學(xué)習(xí)所需的數(shù)據(jù)收集時(shí)間, ?探索了從 670 萬點(diǎn)云,抓取姿態(tài)和抓取指標(biāo)的合成數(shù)據(jù)集進(jìn)行訓(xùn)練,這些數(shù)據(jù)是 ?從 Dex Net 1.0 的數(shù)千個(gè)三維模型中以隨機(jī)姿勢(shì)在桌子上生成的。利用得到的數(shù)據(jù)集 Dex-Net 2.0 訓(xùn)練抓取質(zhì)量卷積神經(jīng)網(wǎng)絡(luò)(GQ-CNN)模型,該模型可快速 ?從深度圖像預(yù)測(cè)抓取成功的概率,其中抓取被指定為相對(duì)于 RGB-D 傳感器的夾 ?持器的平面位置、角度和深度。 |
| 研究方法 | 研究基于深度點(diǎn)云的處于桌面上的單剛體的平行爪抓取規(guī)劃問題。學(xué)習(xí)一個(gè) ?函數(shù),它以一個(gè)候選抓取和一個(gè)深度圖像作為輸入,并輸出一個(gè)魯棒性的估計(jì)值, ?或者在傳感和控制的不確定性下的成功概率。 ? Dex Net 2.0 的架構(gòu)如下圖所示。GQ-CNN 是抓取質(zhì)量卷積神經(jīng)網(wǎng)絡(luò),它是 ?經(jīng)離線訓(xùn)練的,使用由 670 萬個(gè)合成點(diǎn)云、相關(guān)魯棒抓取指標(biāo)的數(shù)據(jù)集 Dex-Net ?1.0 數(shù)據(jù)集,可從深度圖像預(yù)測(cè)魯棒候選抓取。當(dāng)一個(gè)物體呈現(xiàn)給機(jī)器人時(shí),深 ?度相機(jī)會(huì)返回一個(gè)三維點(diǎn)云,識(shí)別出一組幾百個(gè)候選抓取點(diǎn)。GQ-CNN 迅速確定 ?了最穩(wěn)健的抓取位姿,并由 ABB YuMi 機(jī)器人執(zhí)行操作。 |
| 研究結(jié)果 | 開發(fā)了一個(gè)抓取質(zhì)量卷積神經(jīng)網(wǎng)絡(luò)(GQ-CNN)體系結(jié)構(gòu),它可以預(yù)測(cè)基于 ?點(diǎn)云模型抓取的穩(wěn)定性,并在 Dex-2.0 數(shù)據(jù)集上對(duì)其進(jìn)行訓(xùn)練,它是一個(gè)包含 670 ?萬點(diǎn)云、平行抓取和穩(wěn)定性抓指標(biāo)的數(shù)據(jù)集。在 1000 多個(gè)物理評(píng)估中,發(fā)現(xiàn) DexNet ?2.0 抓取規(guī)劃器是一種可靠的、速度比基于點(diǎn)云配準(zhǔn)方法快 3 倍的,并且在 ?40 個(gè)新目標(biāo)的測(cè)試集上具有 99%的精度的抓取規(guī)劃器。 |
?
?
?
?
Deep Predictive Policy Training using Reinforcement Learning
深度預(yù)測(cè)策略的強(qiáng)化學(xué)習(xí)訓(xùn)練方法 ?
| 論文作者 | Ali Ghadirzadeh, Atsuto Maki, Danica Kragic and Marten Bjorkman. |
| 論文地址 | 論文出處:Robotics: Science and Systems,2019 ? 論文地址:https://arxiv.org/pdf/1903.11239.pdf |
| 論文摘要 | 由于感知運(yùn)動(dòng)過程的內(nèi)在潛伏期,熟練的機(jī)器人任務(wù)學(xué)習(xí)最好通過預(yù)測(cè)動(dòng)作策略來實(shí)現(xiàn)。然而,訓(xùn)練這樣的預(yù)測(cè)策略是具有挑戰(zhàn)性的,因?yàn)樗枰业秸麄€(gè)動(dòng)作持續(xù)期間的運(yùn)動(dòng)激活軌跡。我們提出了一個(gè)數(shù)據(jù)高效的深度預(yù)測(cè)策略訓(xùn)練(DPPT)框架,該框架采用深度神經(jīng)網(wǎng)絡(luò)策略架構(gòu),將圖像觀察映射到一系列的運(yùn)動(dòng)激活。該體系結(jié)構(gòu)由三個(gè)子網(wǎng)絡(luò)組成,它們被稱為感知、策略和行為的超層。感知超層和行為超層分別強(qiáng)制提取用合成和模擬訓(xùn)練樣本訓(xùn)練的視覺和運(yùn)動(dòng)數(shù)據(jù)。策略超層是一個(gè)具有更少參數(shù)的小子網(wǎng)絡(luò),用于映射抽象流形之間的數(shù)據(jù)。利用策略搜索強(qiáng)化學(xué)習(xí)的方法對(duì)每一個(gè)任務(wù)進(jìn)行訓(xùn)練。我們通過訓(xùn)練PR2機(jī)器人熟練抓取物體和投擲球的預(yù)測(cè)策略來證明所提出架構(gòu)和學(xué)習(xí)框架的適用性。該方法的有效性證明,這些任務(wù)訓(xùn)練僅使用約180個(gè)真實(shí)的機(jī)器人嘗試定性終端獎(jiǎng)勵(lì)。 |
| 研究問題 | 由于感知運(yùn)動(dòng)過程的固有延遲,機(jī)器人任務(wù)學(xué)習(xí)最好通過預(yù)測(cè)動(dòng)作策略來實(shí) ?現(xiàn)。然而,訓(xùn)練這樣的預(yù)測(cè)策略是具有挑戰(zhàn)性的,因?yàn)樗婕暗皆谡麄€(gè)動(dòng)作過程 ?中找到運(yùn)動(dòng)激活的軌跡。本文中,提出一個(gè)基于深度神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)高效深度預(yù) ?測(cè)策略訓(xùn)練(DPPT)框架,將圖像觀測(cè)映射到一系列的運(yùn)動(dòng)激活。該體系結(jié)構(gòu) ?由三個(gè)子網(wǎng)絡(luò)組成,分別稱為感知層、策略層和行為層。感知層和行為層迫使我 ?們對(duì)視覺和行為進(jìn)行抽象分別用合成訓(xùn)練樣本和模擬訓(xùn)練樣本訓(xùn)練數(shù)據(jù)。策略層 ?是一個(gè)較小的子網(wǎng)絡(luò),具有較少的參數(shù)來映射抽象流形之間的數(shù)據(jù)。使用策略搜 ?索強(qiáng)化學(xué)習(xí)的方法對(duì)每個(gè)任務(wù)進(jìn)行訓(xùn)練。通過在 PR2 機(jī)器人上訓(xùn)練熟練抓取和 ?投球的預(yù)測(cè)策略。下圖表示在機(jī)器人拋擲 ball 過程的瞬間圖。 |
| 研究方法 | 由感知層、策略層和行為層組成的深度預(yù)測(cè)策略體系結(jié)構(gòu)如下圖所示。作為 ?網(wǎng)絡(luò)輸入,給出了一個(gè)中心 RGB 圖像。感知層將圖像數(shù)據(jù)抽象為與任務(wù)相關(guān)的 ?對(duì)象對(duì)應(yīng)的若干空間位置。策略層將抽象狀態(tài)隨機(jī)映射到操作流形中的一個(gè)點(diǎn)。 ?最后,針對(duì)給定的采樣動(dòng)作,行為層生成一長軌跡的電機(jī)指令,并應(yīng)用于機(jī)器人 ?連續(xù) T 個(gè)時(shí)間步長。 |
| 研究結(jié)果 | 文章證明了所提出的結(jié)構(gòu)和學(xué)習(xí)框架的適用性。該方法的有效性通過以下事 ?實(shí)得到了證明:這些任務(wù)僅使用 180 次真正的機(jī)器人進(jìn)行訓(xùn)練,并提供定性的最 ?終獎(jiǎng)勵(lì)。 |
?
?
?
?
Learning Agile and Dynamic Motor Skills for Legged Robots ?
面向腿式機(jī)器人的敏捷動(dòng)態(tài)特性的技能學(xué)習(xí) ?
| 論文作者 | Jemin Hwangbo, Joonho Lee, Alexey Dosovitskiy, Dario Bellicoso, ?Hoonho Lee, Vassilios Tsounis, Vladlen Koltun and Marco Hutter. ? |
| 論文地址 | 論文出處:Science Robotics, 2019 ? 論文地址:https://arxiv.org/pdf/1901.08652.pdf |
| 論文摘要 | 有腿機(jī)器人是機(jī)器人領(lǐng)域最大的挑戰(zhàn)之一。動(dòng)物的動(dòng)態(tài)和敏捷的動(dòng)作是無法用現(xiàn)有的方法模仿的,而現(xiàn)有的方法是由人類制作的。一個(gè)引人注目的替代方案是強(qiáng)化學(xué)習(xí),它需要最少的工藝,并促進(jìn)控制策略的自然進(jìn)化。然而,到目前為止,對(duì)有腿機(jī)器人的強(qiáng)化學(xué)習(xí)研究主要局限于仿真,在實(shí)際系統(tǒng)中部署的例子很少,而且比較簡單。主要原因是,用真正的機(jī)器人訓(xùn)練,尤其是動(dòng)態(tài)平衡系統(tǒng),是復(fù)雜和昂貴的。在目前的工作中,我們介紹了一種方法來訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)策略在模擬和轉(zhuǎn)移到一個(gè)最先進(jìn)的腿系統(tǒng),從而利用快速,自動(dòng)化,和經(jīng)濟(jì)有效的數(shù)據(jù)生成方案。該方法被應(yīng)用于ANYmal機(jī)器人,一個(gè)成熟的中型狗大小的四足系統(tǒng)。通過使用模擬訓(xùn)練的策略,四足機(jī)器人可以獲得比以往方法更好的運(yùn)動(dòng)技能:ANYmal能夠精確且高效地執(zhí)行高水平的身體速度指令,比以前跑得更快,即使在復(fù)雜的配置下也能從墜落中恢復(fù)過來。 |
| 研究問題 | 近年來,腿式機(jī)器人是機(jī)器人技術(shù)中最大的挑戰(zhàn)之一。動(dòng)物的動(dòng)態(tài)和敏捷的 ?動(dòng)作是現(xiàn)有的方法無法模仿的,而這些方法是由人類精心設(shè)計(jì)的。一個(gè)令人信服 ?的替代方案是強(qiáng)化學(xué)習(xí),它需要最少的技能并促使控制策略的自然演化更新。然 ?而,到目前為止,對(duì)腿式機(jī)器人的強(qiáng)化學(xué)習(xí)研究主要局限于仿真,在實(shí)際系統(tǒng)中 ?應(yīng)用比較簡單的例子較少。主要原因是,使用真正的機(jī)器人進(jìn)行訓(xùn)練,尤其是使 ?用動(dòng)態(tài)平衡系統(tǒng),既復(fù)雜又昂貴。在本論文中,我們提供了一種新的方法,在模 ?擬中訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)策略,并將其遷移到一個(gè)最先進(jìn)的腿系統(tǒng),因此我們利用 ?快速、自動(dòng)化和經(jīng)濟(jì)有效的數(shù)據(jù)生成方案。 |
| 研究方法 | 對(duì)于腿式機(jī)器人的敏捷動(dòng)態(tài)性技能學(xué)習(xí)的過程,首先是系統(tǒng)建模,針對(duì)于四 ?足機(jī)器人的物理參數(shù)的辨識(shí)以及確定機(jī)器人動(dòng)態(tài)參數(shù)的不確定性指標(biāo),這個(gè)過程 ?可能需要環(huán)境參數(shù)估計(jì),物理動(dòng)態(tài)性能估計(jì)等;其次是訓(xùn)練驅(qū)動(dòng)神經(jīng)網(wǎng)絡(luò),這個(gè) ?過程一般通過構(gòu)建機(jī)器人狀態(tài)到機(jī)器人電機(jī)控制的映射函數(shù)實(shí)現(xiàn),隨著深度神經(jīng) ?網(wǎng)絡(luò)的廣泛認(rèn)可,這樣的非線性映射函數(shù)現(xiàn)大多采用深度神經(jīng)網(wǎng)絡(luò)擬合;然后在 ?仿真中完成基于強(qiáng)化學(xué)習(xí)的驅(qū)動(dòng)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程,最后將訓(xùn)練好的驅(qū)動(dòng)神經(jīng) ?網(wǎng)絡(luò)擬合的控制策略應(yīng)用在實(shí)際的系統(tǒng)中。 整個(gè)系統(tǒng)的控制網(wǎng)絡(luò)由三部分構(gòu)成,首先是策略網(wǎng)絡(luò),用于將當(dāng)前的觀測(cè)量 ?和之前的關(guān)節(jié)狀態(tài)量映射到目標(biāo)關(guān)節(jié)量(下一時(shí)刻關(guān)節(jié)控制量),然后是驅(qū)動(dòng)網(wǎng) ?絡(luò),用于在剛體關(guān)節(jié)控制中將歷史關(guān)節(jié)狀態(tài)映射到關(guān)節(jié)力矩控制量上,機(jī)器人狀 ?態(tài)量有各關(guān)節(jié)的位置信息 q 與速度信息 u。 |
| 研究結(jié)果 | 應(yīng)用于一個(gè)復(fù)雜的中型犬大小的四足系統(tǒng) ANYmal 機(jī)器人,使得在模擬中 ?訓(xùn)練的四足機(jī)器人的運(yùn)動(dòng)策略超越了以前的方法,ANYmal 能夠精確和高效地遵 ?循高水平的身體速度指令,比以前跑得更快,甚至在復(fù)雜的配置中也能從跌倒中 ?恢復(fù)過來。 |
?
?
?
?
Making Sense of Vision and Touch: Self Supervised Learning of ?Multimodal Representations for Contact Rich Tasks ?
理解視覺和觸覺:接觸任務(wù)多模態(tài)表達(dá)的自監(jiān)督學(xué)習(xí) ?
| 論文作者 | Michelle A. Lee, Yuke Zhu, Krishnan Srinivasan, Parth Shah, Silvio ?Savarese, Li Fei-Fei, Animesh Garg, and Jeannette Bohg ? |
| 論文地址 | 論文出處:IEEE International Conference on Robotics and Automation,2019 ? 論文地址:https://ieeexplore.ieee.org/abstract/document/8793485 |
| 論文摘要 | 在非結(jié)構(gòu)化環(huán)境中,接觸豐富的操作任務(wù)通常需要觸覺和視覺反饋。要手動(dòng)設(shè)計(jì)一個(gè)結(jié)合了這些不同特點(diǎn)的模式的機(jī)器人控制器并非易事。雖然深度強(qiáng)化學(xué)習(xí)在學(xué)習(xí)高維輸入的控制策略方面顯示出了成功,但由于樣本的復(fù)雜性,這些算法通常難以直接在真實(shí)機(jī)器人上訓(xùn)練。在本文中,我們使用自我監(jiān)督來學(xué)習(xí)我們的感覺輸入的一個(gè)緊湊的多模態(tài)表示,然后可以用來提高我們的策略學(xué)習(xí)的樣本效率。在peg插入任務(wù)上評(píng)估我們的方法,我們表明,它在不同的幾何、配置和間隙上得到了推廣,同時(shí)對(duì)外部擾動(dòng)具有魯棒性。我們也系統(tǒng)地研究了不同的自我監(jiān)督學(xué)習(xí)目標(biāo)和表現(xiàn)學(xué)習(xí)架構(gòu)。給出了仿真結(jié)果和實(shí)際機(jī)器人的仿真結(jié)果。 |
| 研究問題 | 非結(jié)構(gòu)化環(huán)境中需要接觸的操作任務(wù)通常需要觸覺和視覺反饋。但是,人工 ?設(shè)計(jì)融合各個(gè)不同模態(tài)的機(jī)器人控制器并非易事。盡管深度強(qiáng)化學(xué)習(xí)已經(jīng)成功地 ?應(yīng)用于針對(duì)高維輸入的控制策略學(xué)習(xí),但由于樣本復(fù)雜性,這些算法通常難以部 ?署在實(shí)際的機(jī)器人上。提出使用自監(jiān)督來學(xué)習(xí)感官輸入的緊湊和多模態(tài)表示,以 ?用來提高策略學(xué)習(xí)的樣本效率。 |
| 研究方法 | 以學(xué)習(xí)機(jī)器人執(zhí)行需要接觸操作任務(wù)的策略為目標(biāo)。希望評(píng)估融合多傳感器 ?信息的價(jià)值以及多模態(tài)表示在跨任務(wù)傳遞的能力。為了提高樣本效率,首先學(xué)習(xí) ?了基于神經(jīng)網(wǎng)絡(luò)的多傳感器數(shù)據(jù)特征表示。得到的壓縮特征向量用作通過強(qiáng)化學(xué) ?習(xí)學(xué)習(xí)到的策略的輸入。 ? 我們將具有接觸的操作作為一個(gè)無模型強(qiáng)化學(xué)習(xí)問題,研究它在依賴多模態(tài) ?反饋以及在幾何、間隙和構(gòu)型不確定的情況下的性能。由于選擇無模型,還消除 ?了對(duì)精確動(dòng)力學(xué)模型的需要,這是存在接觸的操作中的典型困難。 |
| 研究結(jié)果 | ?提出了一種新穎的模型,將異構(gòu)感官輸入編碼為多模態(tài)表示。一旦經(jīng)過訓(xùn)練, ?當(dāng)用作用于強(qiáng)化學(xué)習(xí)的淺層神經(jīng)網(wǎng)絡(luò)策略的輸入時(shí),該表示就保持固定。通過自 ?我監(jiān)督來訓(xùn)練表示模型,從而無需手動(dòng)標(biāo)注。實(shí)驗(yàn)表明,需要接觸的任務(wù)需要視 ?覺和觸覺的多模式反饋,此外,還進(jìn)一步證明了多模態(tài)表示可以很好地遷移到其 ?他新任務(wù)中。 |
?
?
?
?
A Magnetically Actuated Untethered Jellyfish Inspired Soft ?Milliswimmer ?
一個(gè)受水母啟發(fā)的磁力驅(qū)動(dòng)軟體游泳機(jī)器人 ?
| 論文作者 | Ziyu Ren , Tianlu Wang,Wenqi Hu , and Metin Sitti |
| 論文地址 | 論文出處:Robotics: Science and Systems, 2019 論文地址:http://www.roboticsproceedings.org/rss15/p13.pdf |
| 論文摘要 | 無栓小型軟機(jī)器人可以潛在地用于醫(yī)療保健和生物醫(yī)學(xué)應(yīng)用程序。它們可以進(jìn)入小的空間,以可編程的方式重塑它們的身體,以適應(yīng)非結(jié)構(gòu)化的環(huán)境,并具有多樣的動(dòng)態(tài)行為。然而,目前的微型軟機(jī)器人功能有限,限制了其在醫(yī)療領(lǐng)域的應(yīng)用。利用磁軟復(fù)合材料的形狀可編程能力,我們提出了一種無拴軟微機(jī)器人(jellyfishbot),它可以像水母一樣游泳,通過時(shí)間和軌跡的不對(duì)稱上下拍打它的下垂。它的游動(dòng)速度和方向可以通過調(diào)節(jié)外部振蕩磁場(chǎng)的大小、頻率和方向來控制。我們演示了這種水母機(jī)器人可以執(zhí)行多項(xiàng)對(duì)醫(yī)療應(yīng)用有用的任務(wù),例如運(yùn)送藥物、堵塞狹窄的管道或血管,以及在基于超聲成像的指導(dǎo)下修補(bǔ)目標(biāo)區(qū)域。在本文中介紹的毫微機(jī)器人可以用于完全充滿液體的器官,如膀胱或充氣的胃。 |
| 研究問題 | 不受限制的小型軟機(jī)器人可以用于醫(yī)療和生物醫(yī)學(xué)應(yīng)用。他們可以進(jìn)入狹小 ?空間并以可編程方式改變形狀,以適應(yīng)非結(jié)構(gòu)化環(huán)境并具有多種動(dòng)態(tài)行為。但是, ?當(dāng)前的微型軟機(jī)器人的功能有限,從而限制了它們?cè)卺t(yī)療中的應(yīng)用。利用磁性軟 ?復(fù)合材料形狀可編程的優(yōu)勢(shì),提出一種不受束縛的軟體機(jī)器人,它可以像水母一 ?樣在時(shí)間和軌跡上不對(duì)稱地上下跳動(dòng),可以通過調(diào)節(jié)外部振蕩磁場(chǎng)的大小,頻率 ?和方向來控制其游泳速度和方向。 |
| 研究方法 | 該機(jī)器人的設(shè)計(jì)如上圖所示,機(jī)器人主體由兩部分組成:主動(dòng)部分像肌肉一 ?樣工作以實(shí)現(xiàn)劃槳運(yùn)動(dòng),而被動(dòng)部分則填充了主動(dòng)部分的間隙,使身體成為連續(xù) ?的流體動(dòng)力表面。身體的主動(dòng)部分由軟磁性材料制成,可在外部 B 場(chǎng)下變形。通 ?過將釹鐵硼(NdFeB)磁性微粒(MQP-15-7,Magnequench;平均直徑:5μm) ?與聚合物(Ecoflex 00-10,Smooth-On Inc.)混合來制備材料,質(zhì)量比為 1:1。將該混合物澆鑄到涂覆有聚對(duì)二甲苯-C 的聚合物(甲基丙烯酸甲酯)(PMMA)板 ?上。聚合物在 60°C 固化形成厚度約為 96μm 的薄膜(下圖 b-i)。使用激光切 ?割機(jī)從該薄膜上切出主動(dòng)部分的幾何形狀(下圖 b-ii)。從平板上移開主動(dòng)部分 ?后,使用移液器將水滴滴在其上。活性部分可以立即包裹水滴并在表面張力作用 ?下形成橢圓形(下圖 b-iii)。然后將有效成分放入冰箱進(jìn)行冷凍,以保持橢圓形 ?的形狀。橢圓形主動(dòng)部分在振動(dòng)樣品磁力計(jì)(VSM,EZ7,Microsense)內(nèi)部被 ?1.8T 均勻磁場(chǎng)磁化。磁化后,用非磁性彈性體(Ecoflex 00-10)填充主動(dòng)部分的 ?間隙以形成厚度約為 20μm 的薄層薄膜(下圖 b-iv)。最終機(jī)器人如下圖 a-ii 所 ?示。 |
| 研究結(jié)果 | 提出了一種使用磁性軟復(fù)合材料制作的軟體游泳機(jī)器人。只需調(diào)節(jié)外部磁場(chǎng) ?的波形,頻率和振蕩方向即可實(shí)現(xiàn)對(duì)其控制。已經(jīng)進(jìn)行了初步研究以發(fā)現(xiàn)其推進(jìn) ?速度與輸入控制信號(hào)之間的關(guān)系。當(dāng)驅(qū)動(dòng)頻率增加時(shí),由于流體動(dòng)力阻尼力,機(jī) ?器人的跳動(dòng)幅度單調(diào)減小。實(shí)驗(yàn)數(shù)據(jù)和模型預(yù)測(cè)都顯示了對(duì)于特定控制波形的最 ?佳驅(qū)動(dòng)頻率的存在。實(shí)驗(yàn)表明,該機(jī)器人可用于多種潛在醫(yī)療功能。 |
?
?
?
?
Robust Visual-Inertial State Estimation with Multiple Odometries and Efficient Mapping on an MAV with Ultra-Wide FOV Stereo Vision
魯棒多測(cè)度視覺慣性狀態(tài)估計(jì)及其在具有超廣角立體視覺的微型飛行器上的高效映射
| 論文作者 | M. G. Mu ?ller, F. Steidle, M. J. Schuster, P. Lutz, M. Maier, S. Stoneman, T. Tomic, and W. Sturzl |
| 論文地址 | 論文出處:IEEE International Conference on Intelligent Robots and Systems,2018 論文地址:https://ieeexplore.ieee.org/document/8594117 |
| 論文摘要 | 這里提出的飛行系統(tǒng)使用兩對(duì)廣角立體攝像機(jī)和地圖的興趣在短時(shí)間內(nèi)的一個(gè)大的地區(qū)。我們提出了一種配備了兩對(duì)廣角立體攝像機(jī)和一個(gè)慣性測(cè)量單元(IMU)的多機(jī)系統(tǒng),用于魯棒的視覺慣性導(dǎo)航和高效的全向三維制圖。四臺(tái)攝像機(jī)可以垂直覆蓋240度的立體視場(chǎng)(FOV),這使得該系統(tǒng)也適用于洞穴等狹窄和封閉的環(huán)境。在該方法中,我們從四個(gè)廣角攝像機(jī)合成八個(gè)虛擬針孔攝像機(jī)。由此產(chǎn)生的四個(gè)針孔立體聲系統(tǒng)中的每一個(gè)都提供了一個(gè)獨(dú)立的視覺測(cè)程(VO)輸入。隨后,基于四種運(yùn)動(dòng)估計(jì)與狀態(tài)估計(jì)的一致性,將四種運(yùn)動(dòng)估計(jì)與IMU的數(shù)據(jù)進(jìn)行融合。我們描述了視覺系統(tǒng)的配置和圖像處理,以及傳感器融合和測(cè)繪管道在MAV上。我們證明了我們的多vo方法的魯棒性視覺慣性導(dǎo)航和目前的三維測(cè)繪實(shí)驗(yàn)結(jié)果。收起會(huì)議名稱:—— |
| 研究問題 | 近年來,微型飛行器(MAV)已用于各種各樣的應(yīng)用中。他們能夠快速到達(dá) ?感興趣的點(diǎn)或獲得以前難以或不可能到達(dá)的視角,這使它們對(duì)于諸如勘探,檢查, ?搜索和救援之類的任務(wù)變得非常有用。提出了一種配備兩對(duì)廣角立體相機(jī)和一個(gè)慣性測(cè)量單元(IMU)的多旋翼系統(tǒng),以實(shí)現(xiàn)強(qiáng)大的視覺慣性導(dǎo)航和省時(shí)的全向 ?3D 映射,如下圖所示。 |
| 研究方法 | 四個(gè)攝像頭垂直覆蓋了 240 度的立體視野(FOV),這使得該系統(tǒng)也適用于 ?狹窄和狹窄的環(huán)境,例如洞穴。在所提出的方法中,從四個(gè)廣角攝像頭合成了八 ?個(gè)虛擬針孔攝像頭。所得的四個(gè)合成針孔立體系統(tǒng)中的每一個(gè)都為獨(dú)立的視覺測(cè) ?距法(VO)提供輸入。隨后,基于它們與狀態(tài)估計(jì)的一致性,將四個(gè)單獨(dú)的運(yùn) ?動(dòng)估計(jì)與來自 IMU 的數(shù)據(jù)融合。 ? |
| 研究結(jié)果 | 提出了配備有四個(gè)廣角攝像機(jī)的 MAV。多達(dá) 240°的垂直立體視野使 MAV ?能夠感知其下方,上方和前方的對(duì)象,這與避障,路徑規(guī)劃和有效的映射等任務(wù) ?有關(guān)。實(shí)驗(yàn)表明,由四個(gè)具有獨(dú)立關(guān)鍵幀的立體測(cè)距儀提供的魯棒運(yùn)動(dòng)估計(jì),也 ?可以從較大的視野中受益,從而可以進(jìn)行狀態(tài)估計(jì)。 |
?
?
?
文章內(nèi)容主要參考:《《2019中國人工智能發(fā)展報(bào)告》—清華大學(xué)中國工程院知識(shí)智能中心》
?
?
《新程序員》:云原生和全面數(shù)字化實(shí)踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀總結(jié)
以上是生活随笔為你收集整理的Paper之IEEERSJ:2009年~2019年机器人技术(IEEE机器人和自动化国际会议RSJ智能机器人与系统国际会议机器人技术:科学与系统机器人学报)历年最佳论文简介及其解读的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 成功解决An error ocurred
- 下一篇: Python:利用python编程实现三