從AlphaGo到猜畫小歌,Google一再向我們展示著人工智能的神通廣大,前段時間Google又推出一個新的AI實(shí)驗(yàn)網(wǎng)站 Move Mirror 。
Move Mirror是一個人工智能實(shí)驗(yàn),通過移動讓你以一種有趣的新方式來探索圖像,當(dāng)你在攝像頭前移動時,Move Mirror會通過你的實(shí)時動作判定你的人體姿勢,與數(shù)百張在世界各地做類似姿勢的人的圖像相匹配,篩選出與你的姿勢最相近的圖像。你甚至可以捕獲做一個GIF圖,與你的朋友分享它。
大概的運(yùn)作原理是:它會利用PoseNet來鏡像圖像中人體姿勢的關(guān)節(jié)對應(yīng)位置,分析后從有80000張素材的數(shù)據(jù)圖庫中對比出與你姿勢最接近的圖像,而這個過程僅僅需要15ms。并且搜索結(jié)果會即時比對隨時變更。
這這要?dú)w功于TensorFlow.js,這是一個允許你在瀏覽器中運(yùn)行機(jī)器學(xué)習(xí)項目的Javascript庫。通過將PoseNet移植到TensorFlow.js,任何擁有配備好網(wǎng)絡(luò)攝像頭的PC或手機(jī)的人都可以在Web瀏覽器中體驗(yàn)和使用這項技術(shù)。關(guān)于隱私,當(dāng)PoseNet由tensorflow.js驅(qū)動時,這就意味著姿態(tài)估計直接發(fā)生在瀏覽器中,你的圖像不會被儲存或發(fā)送到服務(wù)器,所有的圖像識別都在本地進(jìn)行。所以你可以放心去做一些看著很搞笑或有點(diǎn)蠢的動作。
上段說到PoseNet這是一個由劍橋大學(xué)開發(fā)的姿態(tài)估計開源工具,允許任何Web開發(fā)人員完全在瀏覽器中進(jìn)行基于身體的交互,不需要特殊的相機(jī)或C++/Python技能,這是非常先進(jìn)的姿勢估計模型,即使是一些模糊,低分辨率,黑白的圖片,也可以從圖像數(shù)據(jù)中提供高度準(zhǔn)確的姿勢數(shù)據(jù)。PoseNet可以通過簡單易獲取的Web API降低了姿態(tài)估計的入門門檻。
姿態(tài)匹配和搜索是Move Mirror面臨的難點(diǎn)。
PoseNet在面部和身體上檢測17個姿勢關(guān)鍵點(diǎn)。每個關(guān)鍵點(diǎn)都有三個重要的數(shù)據(jù):(x,y)坐標(biāo)位置(表示PoseNet發(fā)現(xiàn)該關(guān)鍵點(diǎn)的輸入圖像中的像素位置)和一個置信度得分(PoseNet對猜測的正確程度有多大)。
12下一頁>(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )