史丹福大學、NVIDIA 攜手展示更具臨場感、更舒適的 VR 顯示器

作者 Brian Caulfield

我們在本週的 SIGGRAPH 繪圖技術論壇裡與史丹福大學合作,展示一項讓虛擬實境 (VR) 更為自然和舒適的嶄新技術,以促進虛擬實境技術背後的科學理論向前發展。

在過去數年裡,VR 已成為一項新興科技浪潮,但其基本原理仍與查理.惠斯通爵士(Sir Charles Wheatstone)在1838年發明的首具實體三維顯像頭戴裝置所使用的理論一致,並無長足發展。

查理爵士在連接至觀看者頭部的箱子裡,放置兩個相同場景、角度略有偏移的影像,你的大腦會結合每只眼睛所看到的內容,並且認為它是 3D 立體的圖像。

NVIDIA 研究員 Fu-Chung Huang 解釋:「唯一真正改變的事情,就是我們現在有電腦。」

Huang 與史丹福大學運算影像組織合作,使用繪圖處理器 (GPU) 每秒多次產生50個相同場景的不同影像,而非只有兩個影像。獲得的結果是更清晰自然的虛擬實境體驗。

這對於複製人類眼睛運作方式來說,是非常重要的一個進展。

人類的大腦會引導雙眼同時轉動 – 研究人員稱此為「構造轉向」(vergence),並且同時對焦在物體上。物體位於遠處時,眼睛就會改變對焦,才能看清楚物體。但同時每眼的瞳孔也會略為背向分開或轉動。

只依賴兩個影像的 VR 技術,透過每只眼睛觀看一個影像的方式打破了這項關係,它缺少研究人員所稱的「對焦提示」,眼睛轉動看著更靠近的虛擬實境場景部分內容時,眼睛也會改變對焦。然而實際影像的距離卻未更動,那種不連續的情況會造成視力模糊、疲勞或噁心。

解決方案:夾住兩片透明螢幕,創造出一種全息影像或光場,對每只眼睛顯示25個同一場景卻又略有偏移的影像。

以下為其運作方式。我們的 GPU 為每個顯示器產生一個不同的圖案,以創造出場景內容。夾住有這些圖案的兩片透明顯示器,就會看到結合兩個圖案的畫面。當眼睛從顯示器的一端移動到另一端時,會以不同方式排列兩個圖案,呈現出略為不同的影像。眼睛移動時,對焦點即會改變。

Fu-Chung 僅使用一個紙箱和兩片透明板子,就可以簡單演示這個概念,但是將這個概念運用在動態影像上,需要為每只眼睛每秒多次為同一個場景渲染出25不同的影像。Fu-Chung 為此使用 CUDA 平台及採用最新 Maxwell 架構NVIDIA GeForce GTX 970 GPU

這個組合呈現出驚人的結果。戴上頭戴裝置後,眼睛就能更輕鬆在3D場景中進行焦點移動。本週請親臨 SIGGRAPH 會場的 ET18 號展位進行體驗。