廣告

結合3D物件、AR,Google Search將讓人更容易理解搜尋結果

在Google I/O 2019主題演講中,Google宣布將使旗下Google Search進一步整合「看見」成效,讓使用者能進一步藉由3D物件、AR影像更容易理解搜尋項目。

依照Google作法,將會在搜尋結果加入可以呈現更多互動效果的3D物件,或是能讓使用者深入查看的AR影像內容,藉此提供相比文字、靜態圖像更豐富的搜尋結果呈現模式。例如使用者可以透過3D物件了解骨骼與肌肉連動情況,同時也能配合AR影像確認傢具在居家環境擺設情況,甚至可以近距離比較大白鯊實際身長。

但這些應用內容,原則上還是需要開發者、內容提供者建立足夠的3D物件、AR影像,如此才能讓使用者在搜尋過程更容易使用。

至於與Google Search有不少關連的Google Lens,在此次更新更進一步整合包含Google Search、Google Maps、Google Photos等資源,例如透過Google Lens對準餐廳菜單,系統就會依照Google Maps判斷使用者當下所處地點,並且透過Google Search查找其他人在餐廳最常下訂餐點,即可自動在相機拍攝菜單畫面顯示熱門餐點,甚至也能進一步翻譯菜單內容。

甚至透過Google Lens拍攝餐廳消費帳單時,系統也會自動依照金額計算應包含小費,或是眾人平攤費用,另外若是用於拍攝食譜內容的話,甚至也會呈現餐點製作流程,藉此讓Google Lens可以更容易融入一般日常生活使用。

而針對網路服務費用成本相對較高地區,例如印度,Google也將推出適合在地使用的Google Lens服務,並且將以Google Go為稱,基本上的應用功能與Google Lens相同,但預期針對輕量規格手機產品進行最佳化,藉此協助部分地區文盲或閱讀障礙者可以順利「讀取」文字,進而能順利購買車票、確認商品說明,或是使用提款機等。

包含新版Google Search,以及更新版Google Lens與Google Go服務,預計會在5月下旬陸續在各地區推出。

廣告

發表迴響

%d 位部落客按了讚: