訂閱
糾錯(cuò)
加入自媒體

像奇異博士一樣預(yù)測未來已成為現(xiàn)實(shí)?MIT、百度AI或?yàn)槟銏A夢!

作者:Ripple

編輯:生煎

 您正在閱讀算力智庫第 388 篇原創(chuàng)作品  

算力說

無論是在電影還是小說中,預(yù)測未來的能力總是讓人驚嘆。運(yùn)用AI算法,透過聲音或像素流向?qū)ξ磥磉M(jìn)行預(yù)測,或?qū)槟愦蜷_這扇新世界的大門。

1

MIT、UC Berkeley強(qiáng)強(qiáng)聯(lián)手, 用AI聽出你的姿勢

在今年的CPVR2019論文中,有一篇跨模轉(zhuǎn)換的文章吸引了算力智庫的注意。這究竟有什么特別之處呢? 原來,只需要音頻語音輸入,AI可以預(yù)測并生成出相對(duì)應(yīng)的手勢,而所謂的跨模轉(zhuǎn)換即為聲音到手勢及手臂動(dòng)作的轉(zhuǎn)換,讓我們先來看段視頻了解一下。

視頻的左上是標(biāo)定好的真實(shí)數(shù)據(jù),而右邊的視頻則是基于左下的預(yù)測部分進(jìn)行合成的。通過觀察,我們可以發(fā)現(xiàn)預(yù)測數(shù)據(jù)對(duì)比真實(shí)數(shù)據(jù)的準(zhǔn)確度是高度一致的,這種神奇的操作又是基于何種原理呢?

語音預(yù)測動(dòng)作的技術(shù)原理大致分為以下四個(gè)要素:

1. 首先,需要訓(xùn)練與音頻相對(duì)應(yīng)的姿勢檢測序列(能將指定序列從數(shù)碼流中識(shí)別出的方法)。研究人員使用L1回歸到2D關(guān)鍵點(diǎn)的序列堆來學(xué)習(xí)從語音到手勢的映射。

2. 其次,使用對(duì)抗性鑒別器(防止數(shù)據(jù)訓(xùn)練時(shí)源標(biāo)簽信息丟失以及結(jié)果多樣性不足的鑒別器)來避免回歸到所有可能姿勢的平均值,以確保預(yù)測動(dòng)作的可信度。

3. 進(jìn)而,運(yùn)用卷積音頻編碼器(用以音頻糾錯(cuò)的編碼器)對(duì)2D圖像進(jìn)行采樣并轉(zhuǎn)換為1D信號(hào)。

4. 最后使用Unet轉(zhuǎn)換架構(gòu)(用已轉(zhuǎn)換的1D信號(hào)重建2D圖像的轉(zhuǎn)換架構(gòu))。而bottleneck作為構(gòu)建Unet轉(zhuǎn)換架構(gòu)的三大組成之一,為完全卷積網(wǎng)絡(luò)(由卷積音頻編碼器及Unet轉(zhuǎn)換架構(gòu)組成)提供了過去和未來時(shí)間的上下文。而這一步即為預(yù)測速度的關(guān)鍵。

語音預(yù)測手勢的模型(圖片來源:CPVR2019)

在了解了相關(guān)技術(shù)之后,讓我們來感受一下這個(gè)神奇的視頻。

動(dòng)畫角色創(chuàng)建或成為最先應(yīng)用

說話者的手勢是獨(dú)特的,對(duì)一個(gè)人進(jìn)行訓(xùn)練并預(yù)測另一個(gè)人的手勢并不起效。這些個(gè)人特定手勢往往帶有自己的風(fēng)格,無論是睜大眼睛又或是手舞足蹈。比如下面這兩位。

而無論你的動(dòng)作細(xì)微還是夸張,都逃不過AI的“法耳”。

研究團(tuán)隊(duì)表示,他們的下一步是不僅根據(jù)聲音,還根據(jù)文字稿來預(yù)測手勢。該研究潛在的應(yīng)用包括創(chuàng)建動(dòng)畫角色、動(dòng)作自如的機(jī)器人,或者識(shí)別假視頻中人的動(dòng)作。

2

東京工大建立FuturePose系統(tǒng), 提前看穿你的下一步

東京工業(yè)大學(xué)的研究團(tuán)隊(duì)于今年在IEEE上發(fā)布了一套名為FuturePose格斗訓(xùn)練系統(tǒng)。這套系統(tǒng)可以幫助實(shí)驗(yàn)者預(yù)測對(duì)手未來0.5秒后的動(dòng)作。讓我們先看兩個(gè)有趣的動(dòng)圖來了解一下。

研究人員通過RGB像素流向,運(yùn)用機(jī)器學(xué)習(xí)來定位關(guān)節(jié),進(jìn)而根據(jù)關(guān)節(jié)擺動(dòng)方向來預(yù)測對(duì)手未來的動(dòng)作。

實(shí)驗(yàn)時(shí),系統(tǒng)預(yù)測的3D影像和現(xiàn)實(shí)影像同時(shí)顯示在實(shí)驗(yàn)者所佩戴的VR設(shè)備中。結(jié)果顯示,使用FuturePose的成員做出回避動(dòng)作的平均反應(yīng)時(shí)間在0.42秒,而未使用的成員需0.62秒的反應(yīng)時(shí)間。

FuturePose 的技術(shù)原理大致分為以下三個(gè)要素:

1. 首先,基于殘差網(wǎng)絡(luò)(增加深度且能提高性能的網(wǎng)絡(luò))來分析RGB相機(jī)中所捕獲的圖像,以推測對(duì)象2D關(guān)節(jié)的位置。

2. 其次,將該位置輸入至長短期記憶網(wǎng)絡(luò)(處理和預(yù)測時(shí)序數(shù)據(jù)的模型)用以學(xué)習(xí)時(shí)序特征,從而預(yù)測未來的2D位置。

3. 為了得到更精準(zhǔn)的結(jié)果以及降低計(jì)算成本,研究團(tuán)隊(duì)采用了晶格光流法(將向量網(wǎng)格化用以描述物體移動(dòng)的方法)。最后將2D位置可視化,構(gòu)建成3D骨架模型。

FuturePose的技術(shù)原理(圖片來源:IEEE)

競技體育或成為最先應(yīng)用

雖然只有短短的0.5秒,但是對(duì)于專業(yè)的拳擊選手來說,已經(jīng)算的上取勝的關(guān)鍵了。出拳,閃躲,回?fù),一切都能?.5秒內(nèi)完成。東京工業(yè)大學(xué)制作 FuturePose 的初衷是為了格斗訓(xùn)練,但他們也希望通過不斷完善這項(xiàng)技術(shù),讓 FuturePose 可以應(yīng)用于其他競技體育或娛樂項(xiàng)目中。

如守門員撲球時(shí)的提前預(yù)判。

如對(duì)舞蹈動(dòng)作的預(yù)判。

百度AI在預(yù)測未來中的實(shí)際應(yīng)用

縱觀國內(nèi)行業(yè)在“預(yù)測未來”上的發(fā)展主要集中在自動(dòng)駕駛方面。例如,通過行人道路預(yù)測在自動(dòng)駕駛中規(guī)避潛在風(fēng)險(xiǎn)。運(yùn)用跟蹤數(shù)據(jù)學(xué)習(xí)行人動(dòng)力學(xué)則成了國內(nèi)一些如百度、奇點(diǎn)汽車自動(dòng)駕駛領(lǐng)域公司的主要手段。除此之外,對(duì)駕駛車道錯(cuò)誤、闖紅燈、車相撞和撞靜態(tài)物體等方面的預(yù)測也同樣能夠幫助車輛提前感知風(fēng)險(xiǎn)、判斷決策、進(jìn)而規(guī)避危險(xiǎn)事件。

百度AI的兩大殺手級(jí)武器

Road Hackers自動(dòng)駕駛平臺(tái)

Road Hackers是世界上首個(gè)在真實(shí)道路上可以實(shí)現(xiàn)端到端模式的高級(jí)自動(dòng)駕駛模型,并已具備提供海量中國路情駕駛數(shù)據(jù)開放,基于深度學(xué)習(xí)的自動(dòng)駕駛算法演示,可有效提高對(duì)路況、行人、危險(xiǎn)環(huán)境預(yù)測的準(zhǔn)確度。

BCU-百度自動(dòng)駕駛專用計(jì)算平臺(tái)

BCU (Baidu Computing Unit) 是國內(nèi)目前第一個(gè)可量產(chǎn)的自動(dòng)駕駛計(jì)算平臺(tái),目前具有信息安全和云端更新兩大基礎(chǔ)能力,以及高精定位、環(huán)境感知、規(guī)劃決策的AI核心模塊。其中MLOP(高精定位+環(huán)境感知)、MLOP2(高精定位+環(huán)境感知+規(guī)劃決策)

日前,北京市自動(dòng)駕駛測試管理聯(lián)席小組發(fā)布首批T4級(jí)別自動(dòng)駕駛測試牌照,百度成為中國第一家、也是唯一獲得此級(jí)別牌照的企業(yè)。

 文章所載觀點(diǎn)僅代表作者本人

 且不構(gòu)成投資建議

 敬請(qǐng)注意投資風(fēng)險(xiǎn)

往期精彩報(bào)道

80后掌門人珠寶轉(zhuǎn)行做軍工,科創(chuàng)板助力國防信息化大浪淘沙

ARM斷供華為,被捏住軟肋的“中國芯”能否靠科創(chuàng)板逆襲?

剛獲1.2億新融資的亮風(fēng)臺(tái)創(chuàng)始人廖春元:正在關(guān)注科創(chuàng)板

萬眾矚目!科創(chuàng)板首發(fā)股馬上誕生,為什么它們能首批上市?

Libra要涼?國會(huì)叫停!退燒后理性的樣子才能觸達(dá)價(jià)值核心

成立七年,仍虧損!AI教育第一股流利說,流年順乎?

拼多多在左,蘋果在右,傍上綠地的涂鴉智能該何去何從?

市北高新馬慧民:5G+大數(shù)據(jù),催生“數(shù)據(jù)智能”新機(jī)遇

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)