新版ARKit 3.0,或許就是為了即將揭曉的蘋果AR頭戴裝置作準備

在此次WWDC 2019的更新中,雖然並未出現市場推測的擴增實境頭戴裝置,但蘋果依然花了不少時間介紹全新ARKit 3.0,以及此次新增加的RealityKit與Reality Composer,並且邀請微軟旗下Mojang實際展示即將於夏季推出的《我的世界:地球 (Minecraft:Earth)》,藉此凸顯新版ARKit 3.0應用效果。

就現場詢問,此次ARKit 3.0最大更新就是在於增加People Occlusion與Motion Capture功能,以去年開始增加雙人可在相同擴增實境場景互動的設計基礎下,讓另一名使用者能以全身姿態「進入」擴增實境影像,並且能與擴增實境互動。

藉由機器學習讓擴增實境影像貼和更自然

而之所以能實現這樣的功能,其中也得利於此次新增加的RealityKit與Reality Composer工具資源,讓擴增實境影像能以更自然、無縫形式與真實場景影像結合,而不會出現過往擴增實境影像可能產生邊緣不自然,甚至無法貼和景象的問題。

同時透過People Occlusion與Motion Capture功能,更可藉由機器學習識別人像中頭髮、身上配件、衣服邊緣,或是背包等細節,讓全身人像處於擴增實境過程,能以自然貼和影像情況呈現,甚至能即時捕捉全身肢體動作,進而與虛擬物件產生互動。

除此之外,在ARKit 3.0中更可實現讓虛擬物件能環繞特定景象,甚至人像的呈現效果,不致於像過往在舊版ARKit僅能在特定景象前方呈現,例如以前只能將擴增實境影像標定放在桌上呈現,在ARKit 3.0之後就能配合景深資訊量測,即便同樣將擺放位置標定在桌上,依然能讓擴增實境影像順利呈現在桌下的相對顯示效果。

ARKit 3.0或許為了蘋果首款擴增實境頭戴裝製作準備

在此次Mojang實際以《我的世界:地球》展示內容中,其實就可以明顯看見新版ARKit 3.0應用效果,而在新款Mac Pro與Pro Display XDR顯示器展示中,蘋果也透過擴增實境技術配合展示Mac Pro內部機構組成細節,並且能以零件分散方式進行檢視,同樣的方式也能實際讓使用者透過擴增實境影像呈現的虛擬顯示器,確認顯示器支架內部組件,以及顯示器可呈現使用角度。

從ARKit 3.0的技術應用,似乎顯示蘋果期望將擴增實境以更穩定、逼真形式呈現,若蘋果接下來確實準備推出旗下擴增實境頭戴裝置,無論是否藉由iPhone等裝置輸出運算結果,預期都能讓使用者透過雙眼感受更貼近真實的擴增實境虛擬視覺。

讓更多開發者容易打造擴增實境應用內容

另一方面,蘋果表示在ARKit 3.0加入諸多應用資源,讓使用者能輕易透過簡短編碼即可建立擴增實境應用內容,甚至可以快速連接USDZ格式檔案,將更多虛擬物件放進擴增實境場景使用。

不過,如果開發者有意願的話,其實也能藉由Unity、Unreal Engine等蘋果合作遊戲引擎打造更豐富的擴增實境應用服務,或是透過蘋果提供現有資源,配合蘋果自行打造的擴增實境引擎建立簡單、足夠使用的擴增實境應用項目。

以蘋果的立場,自然是希望透過更簡單方式,讓開發者透過簡短編碼即可完成看似複雜的擴增實境應用服務。

先前採訪經驗,其實開發者對於複雜運算問題通通交給蘋果處理,本身僅需透過簡單語法連接相關API資源即可完成打造一款擴增實境應用服務的作法,其實是相當樂見,畢竟不需要花費大量時間與人力成本學習如何設計,除非有更進一步需求才可能需要透過諸如Unity、Unreal Engine等遊戲引擎打造專屬擴增實境應用功能。

發表迴響

%d 位部落客按了讚: