2018年03月06日,谷歌研究團隊發(fā)現(xiàn)了機器學習用于簡化時間密集型任務的另一種方法,而這最終可以促進實現(xiàn)“星球大戰(zhàn)”般的全息視頻。
這項研究已經(jīng)取得了成效,因為YouTube將在Stories中提供這種視頻分離功能(一種類似于Snapchat的視頻格式,目前僅通過有限beta版本的形式向部分創(chuàng)作者開放)。即便沒有綠幕背景或其他設備,用戶都能輕松改變他們的視頻背景。
谷歌研究人員在最近的博文中介紹了神經(jīng)網(wǎng)絡如何能夠?qū)崟r分離視頻中前景和后景的對象。負責領導項目的谷歌軟件工程師Valentin Bazarevsky和Andrei Tkachenka寫道:“我們的近期目標是利用在YouTube Stories中的有限推出來測試我們的技術。隨著我們改進和擴大我們的分離技術,我們計劃將其整合到谷歌更廣泛的增強現(xiàn)實服務中。”
實際上,蘋果的Clips應用程序已經(jīng)為我們帶來了這種視覺魔術。但是,Clips需要iPhone X及其原深感攝像頭的加持。
谷歌的計算機視覺方法可以為更多的受眾提供類似體驗。這支團隊設計了能夠在智能手機上以高質(zhì)量完成任務的卷積神經(jīng)網(wǎng)絡(CNN),其在iPhone 7上的速度達到100FPS以上,而在Pixel 2上則可以超過40FPS。
蘋果和谷歌都已經(jīng)展示了軟件將如何幫助分離對象和背景,從而促進增強現(xiàn)實體驗作為深度傳感器的替代品。但谷歌正通過機器學習來進一步推進這一方法。由于谷歌最終著眼于AR服務,全息視頻聊天可能很快就能實現(xiàn)。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...