展覽 市場動態 影音 智慧穿戴 生活 處理器 觀察 頭條話題

Qualcomm持續投資延展實境應用,揭曉全新Snapdragon XR2 5G運算平台

去年針對延展實境 (XR)應用需求,Qualcomm宣布推出首款針對虛擬視覺應用的處理器平台Snapdragon XR1運算平台,在此次Snapdragon技術大會上則是進一步宣布推出Snapdragon XR2 5G運算平台,藉此持續投資混合實境應用。

從早期藉由Snapdragon 800系列處理器投入一體式延展實境裝置應用,Qualcomm始終認為包含虛擬實境、擴增實境,甚至混合實境在內的延展實境應用,將會成為未來運算平台。

而如同微軟藉由HoloLens詮釋未來數位化辦公互動模式,以及Facebook在內公司藉由虛擬實境設備展示未來線上社群互動模式,強調未來將透過各類虛擬化視覺技術打造更具深層的沉浸互動體驗,Qualcomm也認為延展實境用將能推動更大的數位化轉型發展機會。

此次宣布推出的Snapdragon XR2 5G運算平台,預期藉由整合5G連網通訊能力,透過高速無線資料傳輸方式呈現更高解析、反應更快的虛擬化視覺,同時也能透過零延遲的互動達成完整沉浸式體驗。

相比先前推出的Snapdragon XR1運算平台,此次推出的Snapdragon XR2 5G運算平台除了結合5G連網能力,更具備2倍CPU與GPU運算效能,同時可對應單眼3K x 3K解析度、90fps的穩定視覺感受,並且對應4倍影片傳輸頻寬,最高可支援8K@60fps或4K@120fps形式影片播放,另外也能透過提昇11倍的人工智慧運算能力,讓虛擬視覺內容呈現更加正確、穩定且自然。

Qualcomm同時針對Snapdragon XR2 5G運算平台打造參考設計,同時為了蒐集更多環境資訊,藉此對應更精準的即時定位系統,同時也能藉由影像識別等技術,讓虛擬化內容可以在正確位置呈現,並且能對應更自然手勢操作,或是透過聲控方式進行互動,另外更可藉由鏡頭蒐集資訊正確識別使用者視覺位置,以及身體轉動方向,讓虛擬化視覺感受可隨著不同操作進行動態調整。

依照Qualcomm說明,在Snapdragon XR2 5G運算平台的參考設計中,將可透過7組鏡頭系統精準追蹤頭部角度、嘴巴動作、眼睛視點位置,並且能藉由判斷26個骨架識別手勢內容,同時也能快速透過電腦視覺方式識別環境細節,藉此快速進行3D場景重建。

目前Qualcomm依然會在市面上維持提供第一款Snapdragon XR1運算平台,並且配合此次推出的Snapdragon XR2 5G運算平台,讓延展實境裝置應用可以進一步區分不同需求,並且讓延展實境裝置能有更多元設計,同時本身也將持續投資此塊市場,分別與微軟、Google、Unity,甚至與更多內容服務、電信業者合作,藉此建造更龐大的延展實境市場生態。

除此之外,Qualcomm也與Niantic合作,藉由Snapdragon XR2 5G運算平台打造延展實境應用參考設計,其中更將整合Niantic旗下包含AR Cloud與相關SDK技術資源,讓更多開發者、廠商能以此建造適合室內、室外使用的延展實境使用體驗。

在產品設計方面,Qualcomm目前也與合作夥伴持續推廣一體式頭戴裝置,或是更簡便的眼鏡外型設計穿戴裝置,並且持續藉由現有Snapdragon XR1、Snapdragon XR2 5G運算平台,甚至直接藉由手機處理器對應打造各類虛擬視覺應用裝置。

楊又肇 (Mash Yang)
楊又肇 (Mash),大學主修電機、輔修資管,畢業後只幫人修過電腦,卻沒有當過一天工程師,誤打誤撞進入聯合新聞網擔任科技頻道主編多年,報導領域廣泛,從晶片到手機、筆電,或從AI到新創產業軟硬兼吃。目前仍是科技新聞業流浪漢身分,除mashdigi.com網站創辦人兼主筆之外,同時也為UDN.com、癮科技、Inside、數位時代、ePrice、Stuff等媒體供稿或撰寫特稿內容,喜歡研究別人不懂的黑科技、把玩各種3C產品,是果粉也是G粉。

發表迴響