訂閱
糾錯(cuò)
加入自媒體

MIT最新AI研究,讓機(jī)器人利用觸覺(jué)感知物體

麻省理工學(xué)院計(jì)算機(jī)科學(xué)及人工智能實(shí)驗(yàn)室(CSAIL)的研究人員表示,在不久的將來(lái),機(jī)器人將能夠通過(guò)觸覺(jué)來(lái)感知物體。一篇最新的相關(guān)論文將于下周在加利福尼亞長(zhǎng)灘市的計(jì)算機(jī)視覺(jué)與模式識(shí)別會(huì)議上公開(kāi),這篇論文描述了一種人工智能系統(tǒng),它可以通過(guò)觸覺(jué)信號(hào)生成觸摸物的視覺(jué)形象,還能根據(jù)視覺(jué)數(shù)據(jù)來(lái)預(yù)測(cè)物體的觸感。

“通過(guò)觀察物體的表面,我們的模型可以預(yù)測(cè)某個(gè)平面或棱角的觸感。通過(guò)觸摸物體,我們的人工智能模型可以根據(jù)觸感來(lái)構(gòu)建感知到的環(huán)境。將這兩種感知數(shù)據(jù)相結(jié)合,機(jī)器人的性能就會(huì)得到優(yōu)化,它在搬運(yùn)或抓取某個(gè)物體時(shí)所需的數(shù)據(jù)就更少,”CSAIL博士生Yunzhu Li說(shuō)道,他與他的導(dǎo)師Russ Tedrake、Antonio Torralba以及另一位博士后Jun-Yan Zhu一起撰寫(xiě)了本篇論文。

這支團(tuán)隊(duì)的系統(tǒng)采用了生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)(GAN),這種神經(jīng)網(wǎng)絡(luò)包含了生成模型和判別模型,前者負(fù)責(zé)生成樣本,后者負(fù)責(zé)辨別生成樣本和現(xiàn)實(shí)樣本的不同。該系統(tǒng)能將觸覺(jué)數(shù)據(jù)產(chǎn)生的圖像拼接起來(lái)。訓(xùn)練時(shí)它采用了VisGel的數(shù)據(jù),該數(shù)據(jù)庫(kù)擁有300萬(wàn)組視覺(jué)和觸覺(jué)的配套數(shù)據(jù),其中包含1.2萬(wàn)個(gè)視頻片段,對(duì)象多達(dá)200種(包括工具、織物和家具產(chǎn)品等)。它會(huì)預(yù)測(cè)出形狀和接觸點(diǎn)的材料,然后與參考圖片進(jìn)行對(duì)比。

例如你給出一只鞋子上某個(gè)點(diǎn)的觸覺(jué)數(shù)據(jù),這個(gè)模型就能確定出這個(gè)接觸點(diǎn)到底在什么地方。

這些參考圖片能為目標(biāo)物體或環(huán)境的細(xì)節(jié)進(jìn)行編碼,讓機(jī)器學(xué)習(xí)模型不斷自我完善。

這些研究人員指出,目前的數(shù)據(jù)集還非常有限,對(duì)于現(xiàn)有的系統(tǒng)而言,物體的顏色、柔軟度等細(xì)節(jié)還很難預(yù)測(cè)。但很顯然他們的研究會(huì)為更多的人機(jī)一體化打下基礎(chǔ),尤其是針對(duì)光線昏暗甚至黑暗密閉空間中的任務(wù)。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問(wèn)題的,請(qǐng)聯(lián)系我們。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)