MIT新机器人“成精了” 能通过视觉和触觉识别事物
MIT 新機(jī)器人項(xiàng)目領(lǐng)導(dǎo)者李云珠
騰訊科技訊,6 月 17 日消息,據(jù)外媒報道,對于人類來說,很容易通過觀察某個物體來判斷其外觀,或者通過觸摸它來判斷它給人的感受,但是這對機(jī)器來說是可能是個巨大的挑戰(zhàn)。現(xiàn)在,美國麻省理工學(xué)院(MIT)計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室(CSAIL)開發(fā)的一種新機(jī)器人,正試圖獲得人類的視覺和觸覺能力。
CSAIL 團(tuán)隊(duì)使用 KUKA 機(jī)器人手臂,并添加了一種名為 GelSight 的觸覺傳感器,該傳感器是由 CSAIL 下屬泰德·阿德爾森(Ted Adelson)團(tuán)隊(duì)開發(fā)。GelSight 收集的信息會被傳輸給人工智能(AI),以便后者能夠理解視覺信息和觸覺信息之間的關(guān)系。
為了教授 AI 如何通過觸摸來識別物體,CSAIL 團(tuán)隊(duì)錄制了 12000 個視頻,記錄了 200 個物體,如織物、工具以及被觸摸的家居物品。這些視頻被分解成靜態(tài)圖像,AI 使用這個數(shù)據(jù)集來連接觸覺和視覺數(shù)據(jù)。
CSAIL 博士生、關(guān)于該系統(tǒng)的新論文主要作者李云珠(音譯)表示:“通過觀察場景,我們的模型可以想象觸摸平面或鋒利邊緣的感覺。通過盲目的觸摸,我們的模型可以純粹通過觸覺來預(yù)測與環(huán)境的交互。將這兩種感覺結(jié)合起來,可以增強(qiáng)機(jī)器人的能力,減少我們在操作和抓取對象時可能需要的數(shù)據(jù)。”
目前,機(jī)器人只能在受控環(huán)境中識別物體。下一步是建立更大的數(shù)據(jù)集,這樣機(jī)器人就可以在更不同的環(huán)境下工作。
加州大學(xué)伯克利分校博士后安德魯·歐文斯(Andrew Owens)表示:“這種方法可能對機(jī)器人非常有用,因?yàn)樗鼈冃枰卮疬@樣的問題:‘這個物體是硬的還是軟的?’或者‘如果我用手把這個杯子舉起來,我的抓力會有多好?’這些都是非常具有挑戰(zhàn)性的問題,因?yàn)樾盘柺侨绱说牟煌?MIT 的模型已經(jīng)顯示出很強(qiáng)的能力。”(騰訊科技審校/金鹿)
總結(jié)
以上是生活随笔為你收集整理的MIT新机器人“成精了” 能通过视觉和触觉识别事物的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 任正非:遭受打压不会阻止华为前进的步伐
- 下一篇: 让港股小股东买得起?阿里计划分拆普通股: