欧美国产一区二区在线,久久久久av一区二区,日韩美女乱婬免费看色网视频大黄
首頁 > 資訊 > 行業(yè)

MIT新機器人“成精了” 能通過視覺和觸覺識別事物

2019/06/17 16:45      騰訊科技


  6月17日消息,據(jù)外媒報道,對于人類來說,很容易通過觀察某個物體來判斷其外觀,或者通過觸摸它來判斷它給人的感受,但是這對機器來說是可能是個巨大的挑戰(zhàn)�,F(xiàn)在,美國麻省理工學院(MIT)計算機科學和人工智能實驗室(CSAIL)開發(fā)的一種新機器人,正試圖獲得人類的視覺和觸覺能力。

  CSAIL團隊使用KUKA機器人手臂,并添加了一種名為GelSight的觸覺傳感器,該傳感器是由CSAIL下屬泰德·阿德爾森(Ted Adelson)團隊開發(fā)。GelSight收集的信息會被傳輸給人工智能(AI),以便后者能夠理解視覺信息和觸覺信息之間的關(guān)系。

  為了教授AI如何通過觸摸來識別物體,CSAIL團隊錄制了12000個視頻,記錄了200個物體,如織物、工具以及被觸摸的家居物品。這些視頻被分解成靜態(tài)圖像,AI使用這個數(shù)據(jù)集來連接觸覺和視覺數(shù)據(jù)。

  CSAIL博士生、關(guān)于該系統(tǒng)的新論文主要作者李云珠(音譯)表示:“通過觀察場景,我們的模型可以想象觸摸平面或鋒利邊緣的感覺。通過盲目的觸摸,我們的模型可以純粹通過觸覺來預測與環(huán)境的交互。將這兩種感覺結(jié)合起來,可以增強機器人的能力,減少我們在操作和抓取對象時可能需要的數(shù)據(jù)。”

  目前,機器人只能在受控環(huán)境中識別物體。下一步是建立更大的數(shù)據(jù)集,這樣機器人就可以在更不同的環(huán)境下工作。

  加州大學伯克利分校博士后安德魯·歐文斯(Andrew Owens)表示:“這種方法可能對機器人非常有用,因為它們需要回答這樣的問題:‘這個物體是硬的還是軟的?’或者‘如果我用手把這個杯子舉起來,我的抓力會有多好?’這些都是非常具有挑戰(zhàn)性的問題,因為信號是如此的不同,而MIT的模型已經(jīng)顯示出很強的能力。”(騰訊科技審校/金鹿)

IT產(chǎn)業(yè)網(wǎng)微信二維碼logo

  榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。

海報生成中...

分享到微博

掃描二維碼分享到微信

分享到微信
一鍵復制
標題鏈接已成功復制

最新新聞

熱門新聞