廣告

Iray VR體驗 還無法實現VR場景光影即時渲染

Nvidia在GTC 2016首場主題演講中,確認將針對開發者設計機器學習、遊戲、影像視覺、虛擬實境等應用提供多項必要的開發工具組,其中也確定在今年6月釋出第8代CUDA技術等應用項目。而針對虛擬實境影像應用的Iray VR技術,基本上就是原本Iray真實光影渲染技術應用效果,讓虛擬實境影像所建構場景可透過貼近真實光源形式產生更擬真視覺,而不會因為不自然的光影效果而認為過假。

在隨後透過HTC VIVE實際體驗Iray VR技術展示內容時,確實可感受到虛擬實境中貼近真實光影表現,以及金屬材質反光呈現質感。但就目前展示內容來看,Iray VR技術主要還是以預先將所有場景的光影資訊渲染完畢,讓使用者在實際觀看時能有貼近真實影像的視覺感受,但若要做到相當即時的光影渲染效果,恐怕短時間內還無法實現。

5iray-barLoft_camHero_2K-1200x675_resize▲Iray VR技術最大價值在於可讓虛擬實境場景光源變得更加真實、活潑,而非生硬的冷感光影表現

在此次GTC 2016針對開發者釋出多向開發工具組資源中,其中在虛擬實境影像應用佔有重要位置的Iray VR技術,主要是將原本應用在影像設計、模擬真實物裡光源互動效果的Iray技術作延伸,藉由繪圖卡等硬體資源將虛擬實境中的環境光源數據預先做渲染計算,讓虛擬實境中的光線表現更加貼近自然,使得呈現視覺影像更像是真實環境表現結果。

如同先前Iray技術展示通常會需要龐大的硬體運算效能,以及部分渲染時間,在此次於GTC 2016的Iray VR技術實際展示中,便是透過兩張Tesla M6000 24GB版本進行串接,同時在示範內容讀取過程中預先將影像光源等數據完成渲染,如此即可在使用者看見影像內容時,就以貼近真實光源反應效果呈現。

即便使用者在虛擬實境場景中轉動視角,或是改變觀看位置,系統端其實僅需針對小幅度改變部分進行渲染運算,例如此次體驗內容是以固定位置觀看一台停放在廣場上的BMW車輛,除了轉動頭部以不同角度觀看車輛,基本上是無法配合HTC VIVE可自由移動特性以不同位置觀看車輛,僅能在車前、正/副駕駛座與車後四個固定位置檢視車輛,實際在示範內容會做到渲染運算部分,其實只有位置改變與選擇不同車輛裝飾配件的情況,但這些渲染運算量基本上並不算大。

而示範內容中,視角轉動時候的影像呈現效果,其實應該可直接視為是將Iray技術中的虛擬攝影機拍攝影像,反向傳遞到HTC VIVE左右兩眼呈現立體視覺,實際上並不會佔用到光影渲染所需效能。再從現場另一個Iray VR示範內容檢視的話,似乎也是事先將所有光影數據渲染計算完畢,雖然使用者可在虛擬實境空間小幅度走動、改變觀看位置與視角,但因為場景範圍較大且無法移動任何虛擬實境物件,因此幾乎可將影響光源變因忽略,並不會做到太多必須重新渲染運算情況。

這樣一來,似乎可解釋Iray VR技術暫時還無法做到即時光影渲染動作,畢竟要達成這樣的效果,所需硬體效能可能相當可觀,因此現階段還是僅能以預先完成渲染實際效果呈現為主,同時就Iray VR Lite技術應用來看,應該也是偏向藉由既有渲染數據讓顯示設備能以較低運算效能呈現自然光源表現的視覺影像,而非直接透過裝置本身進行即時渲染動作。

不過,就Iray技術本身應用情境來看,原本就不是定位在進行即時渲染呈現效果的使用方式,因此對於內容開發者而言,Iray技術最大應用價值仍在於可協助建立更真實的自然光源效果,讓視覺感受能因為光影表現而增加一些真實感,讓虛擬實境影像不會因為過假的光源互動效果導致體驗效果不佳。

廣告

發表迴響

%d 位部落客按了讚: