App 影音 生活 軟體

Google將透過更多鏡頭捕捉精準景深資訊,讓AR應用呈現效果更穩定

去年釋出新版ARcore 1.20版本,讓虛擬物件可錨定於相同位置持續被使用後,Google顯然準備讓使用者能更善用手機上搭載的多鏡頭模組,藉此讓ARCore的擴增實境應用更為穩定。

-

依照Android Police網站取得消息,顯示Google計畫針對搭載雙鏡頭以上相機模組的Pixel手機強化擴增實境應用,預計在接下來準備釋出的Google Play Services for AR App內容裡,加入藉由雙鏡頭產生更符合真實的立體視覺景深效果,意味將透過雙鏡頭模擬人類雙眼,藉此確認更精準的環境景深數據。

雖然在先前的技術裡,Google已經讓ARCore技術可透過單組鏡頭捕捉景深資訊,但畢竟透過電腦視覺演算仍有誤判情況,若能加上第二組鏡頭作為輔助,或許將能讓景深資訊更正確紀錄,並且讓擴增實境中的虛擬物件能對應更正確的擺放位置,同時也能以更自然比例與背景縫合。

從內容顯示,Google預計會在近期內釋出此項更新,並且開放Pixel 4系列機種使用。不過,目前似乎尚未準備開放Pixel 5與Pixel 4a 5G使用,或許是考量後來採用的超廣角鏡頭設計,必須在拍攝角度落差之間作不少修正,因此僅先支援另外配置遠距鏡頭,但拍攝角度相對差異不大的Pixel 4系列使用。

而在Google準備讓ARCore透過兩組鏡頭量測景深,蘋果方面預期也會在近期內針對ARKit進行更新,讓更多iOS裝置可以對應進階的擴增實境應用效果。

楊又肇 (Mash Yang)
mashdigi.com網站創辦人兼主筆,同時也是科技新聞業流浪漢。

發表迴響