訂閱
糾錯(cuò)
加入自媒體

Google推出Move Mirror趣味AI網(wǎng)站,可在瀏覽器中根據(jù)人體動(dòng)作即時(shí)搜圖

2018-08-13 03:22
AR醬
關(guān)注

從AlphaGo到猜畫小歌,Google一再向我們展示著人工智能的神通廣大,前段時(shí)間Google又推出一個(gè)新的AI實(shí)驗(yàn)網(wǎng)站 Move Mirror 。

Move Mirror是一個(gè)人工智能實(shí)驗(yàn),通過移動(dòng)讓你以一種有趣的新方式來探索圖像,當(dāng)你在攝像頭前移動(dòng)時(shí),Move Mirror會(huì)通過你的實(shí)時(shí)動(dòng)作判定你的人體姿勢(shì),與數(shù)百?gòu)堅(jiān)谑澜绺鞯刈鲱愃谱藙?shì)的人的圖像相匹配,篩選出與你的姿勢(shì)最相近的圖像。你甚至可以捕獲做一個(gè)GIF圖,與你的朋友分享它。

大概的運(yùn)作原理是:它會(huì)利用PoseNet來鏡像圖像中人體姿勢(shì)的關(guān)節(jié)對(duì)應(yīng)位置,分析后從有80000張素材的數(shù)據(jù)圖庫(kù)中對(duì)比出與你姿勢(shì)最接近的圖像,而這個(gè)過程僅僅需要15ms。并且搜索結(jié)果會(huì)即時(shí)比對(duì)隨時(shí)變更。

這這要?dú)w功于TensorFlow.js,這是一個(gè)允許你在瀏覽器中運(yùn)行機(jī)器學(xué)習(xí)項(xiàng)目的Javascript庫(kù)。通過將PoseNet移植到TensorFlow.js,任何擁有配備好網(wǎng)絡(luò)攝像頭的PC或手機(jī)的人都可以在Web瀏覽器中體驗(yàn)和使用這項(xiàng)技術(shù)。關(guān)于隱私,當(dāng)PoseNet由tensorflow.js驅(qū)動(dòng)時(shí),這就意味著姿態(tài)估計(jì)直接發(fā)生在瀏覽器中,你的圖像不會(huì)被儲(chǔ)存或發(fā)送到服務(wù)器,所有的圖像識(shí)別都在本地進(jìn)行。所以你可以放心去做一些看著很搞笑或有點(diǎn)蠢的動(dòng)作。

上段說到PoseNet這是一個(gè)由劍橋大學(xué)開發(fā)的姿態(tài)估計(jì)開源工具,允許任何Web開發(fā)人員完全在瀏覽器中進(jìn)行基于身體的交互,不需要特殊的相機(jī)或C++/Python技能,這是非常先進(jìn)的姿勢(shì)估計(jì)模型,即使是一些模糊,低分辨率,黑白的圖片,也可以從圖像數(shù)據(jù)中提供高度準(zhǔn)確的姿勢(shì)數(shù)據(jù)。PoseNet可以通過簡(jiǎn)單易獲取的Web API降低了姿態(tài)估計(jì)的入門門檻。

姿態(tài)匹配和搜索是Move Mirror面臨的難點(diǎn)。

PoseNet在面部和身體上檢測(cè)17個(gè)姿勢(shì)關(guān)鍵點(diǎn)。每個(gè)關(guān)鍵點(diǎn)都有三個(gè)重要的數(shù)據(jù):(x,y)坐標(biāo)位置(表示PoseNet發(fā)現(xiàn)該關(guān)鍵點(diǎn)的輸入圖像中的像素位置)和一個(gè)置信度得分(PoseNet對(duì)猜測(cè)的正確程度有多大)。

1  2  下一頁(yè)>  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)