學習曲線:微軟如何運用 GPU 來協助機器加快學習

作者 Jay White

微軟研究院裡的金頭腦們,正在使用 NVIDIA 的 GPU 來研究更聰明的產品。

微軟研究院擁有逾千位世界級的科學家和工程師,在全球各地的實驗室裡進行各種領域的研究工作。他們的工作是讓產品擁有重大貢獻,解決社會上部分最棘手的難題。

微軟的工程師和研究人員逐漸開始採用 GPU 來協助進行工作。


微軟研究人員正在尋找新方法,
運用我們的 GPU 來協助進行研究工作。

他們有愈來愈多的案子著重在機器學習上,而這是電腦科學領域最熱門的科目之一。

機器學習的目標是讓電腦能從歷史資料裡汲取重點,以得到更好的預測結果;然而過去的情況顯示說易行難。

有三項推動機器學習出現復興的趨勢,一是各類資料大量增加;二是研究人員在用於機器學習的數學模型方面有長足的進展;三是 GPU 成為機器學習研究重要的運算平台。

這些因素讓數學模型的準確性出現足以改變局面的進步,GPU 讓研究人員能用比過去更多的資料來訓練模型。

就算是有使用 GPU,在訓練模型的過程中仍得花上數週來消化大量資料。理論上來說,使用 CPU也能執行相同的訓練過程,只是得花一年以上的時間來訓練單一模型,時間真的太久了。

由於這個領域進展迅速,減少訓練時間成為重要課題,研究人員必須加快設計和訓練週期,以趕上發展腳步。GPU 的成本就是比較低。硬體成本和耗電量也雙雙降低。

微軟研究院才剛部署一部搭載 NVIDIA GPU 的電腦系統,科學家和工程師們可以通過這部 GPU 運算基礎架構,在多個領域裡推動更多創新發現成果。

包括電腦視覺和物體辨識、語音分析、在環境科學等領域裡的資料建模,以及機器學習優化。

簡言之,都是很困難的高深領域。

微軟研究院巨量資料與機器學習首席研究項目經理 Heather Warncke 表示,NVIDIA GPU 加速器適合用於機器學習領域。

她說原因在於 GPU 為高度平行架構,可同時執行多項作業,適合用於機器學習上,加快深度神經網路的訓練速度,同時也較 CPU 系統更為省電。再加上 CUDA 等眾多工具,讓他們更能發揮系統裡 GPU 的長處。

我們有機會與微軟研究院裡跨多個學科的團隊成員合作進行這項企劃案,協助他們進行硬體和系統建置、程式碼檢視和效能調校等作業,而他們也分享了一些心得。

如欲深入得知微軟研究院如何運用 GPU 的能力,本週可優先聆聽。微軟資深研究項目經理 Mark Staveley 將在我們於紐奧良舉辦的 SC 14 超級電腦年會 GPU Technology Theater 活動上,擔任逾四十位演講佳賓裡的其中一位。

Mark 是多位分享將 GPU 用於多項機器學習專案的演講者之一,百度的 Bryan Catanzaro 將講述使用 GPU 架構的機器學習進行影像辨識。另一項亮點:來自早期即將 GPU 用於深度學習的 IDSIA 公司的 Dan Ciresian,將介紹如何將 GPU 與神經網絡用於治療乳癌。

千萬別錯過這場盛會。