NVIDIA 將人工智慧用在光線追蹤上,加快處理圖形工作量的速度

作者 Phil Carmack

好的設計顯而易見,一眼看到便心知肚明。

看不到的是背後試錯的次數。設計師、製造商及其他創意人員得嘗試一個想法的不同修改版本,每製作出一個渲染圖,就得檢查、調整,然後再接著試另一個版本。

重複這個循環的次數愈多,最終結果的水準愈高,當然時間就是金錢,且截止日期步步逼近。

NVIDIA 執行長暨創辦人黃仁勳今日在 GPU 科技大會說明 NVIDIA 如何將人工智慧用在光線追蹤上,改善這項高重複性的設計流程,以精準預測最終的渲染結果(光線追蹤是一項使用複雜數學算式的技術,逼真模擬特定空間裡光線與表面間的交互作用情況)。

光線追蹤作業會產生極為寫實的影像,但需要龐大的運算資源,且會在影像裡留下大量噪點。業界稱去除噪點又保留銳利邊緣和材質細節的作法為「降噪」。黃仁勳使用 NVIDIA Iray 介紹 NVIDIA 如何成為首個以深度學習預測演算法搭配 Pascal 架構 NVIDIA Quadro GPU,即時達到高品質降噪水準的業者。
對於娛樂、產品設計、製造、建築、工程等這些需要使用大量圖形的產業來說,此舉完全改變了遊戲規則。

這項技術可用於多種光線追蹤系統,NVIDIA 已將深度學習技術用於自家渲染產品,首先從 Iray 開始。

Iraycollage

Iray 用於降噪作業

目前用於高品質降噪的演算法在處理每一幀畫面時,得用到數秒鐘到數分鐘的時間,難以用在互動式應用程式上。

Iray AI 只要使用部分完成的結果就能預測最終影像,無需等到渲染出最終畫面,就能製作出準確又逼真的模型。

設計師能以四倍快的速度完成這項高重複性的過程獲得最終畫面,更快瞭解最終場景或模型的結果。省下的時間累積起來,可大幅加快推向市場的腳步。

NVIDIA 的研究和工程團隊為此誕生出一項稱為自動編碼器「autoencoder」的神經網路,用於提高影像解析度、壓縮影片和多項影像處理演算法。

研究團隊使用 NVIDIA DGX-1 AI 超級電腦來訓練神經網路將一個佈滿噪點的影像,變成一個乾淨的參考影像。不到24小時內,使用3000個各種場景裡15,000個有著不同數量噪點的影像來訓練神經網路。完成訓練後,神經網路只要不到一秒鐘的時間,就能清除幾乎任何影像裡的噪點,就算不是原本訓練素材內的影像也沒問題。

有了 Iray 就不用擔心深度學習的功能該如何運作。我們早就訓練好神經網路,且在 Iray 輸出結果上使用 GPU 加速推論技術。創意人員只要按下一個按鈕,就能使用 Pascal 或更高階的 GPU,享受以互動方式獲得更高畫質的樂趣。

在我們提供給軟體公司的 Iray SDK 裡將加入 Iray 深度學習功能,以及出現在今年底前推出的 Iray 外掛程式產品裡;也打算在 NVIDIA Mental Ray 裡加入人工智慧模式,料想多種渲染器都會使用這項技術。七月的 ACM SIGGRAPH 2017 電腦圖形大會將會公布這項技術的基礎。如需更多資訊,請點擊這裡