NVIDIA CUDA-X AI 加速函式庫可將雲端環境裡的機器學習速度提高二十倍;現已在 Microsoft Azure 上推出

作者 Jeff Tseng

資料科學家現在可以在 Microsoft Azure 上使用 NVIDIA 的資料科學加速函式庫 NVIDIA CUDA-X AI,將執行機器學習項目的速度加快二十倍。

只要點幾下,各種規模的企業都能加快執行資料科學的速度,以更快的速度把大量資料變成競爭優勢。

Microsoft Azure Machine Learning(AML)服務是首個納入 RAPIDS 的大型雲端平台,而 RAPIDS 是 NVIDIA CUDA-X AI 的重要零組件。資料科學家進入 RAPIDS 的開放源碼函式庫套件,便能使用 AML 服務上的 NVIDIA GPU,以前所未有的速度進行預測分析。

AML 服務上的 RAPIDS 大幅提高了多個產業裡許多企業執行資料科學的表現,這些企業使用機器學習從大量資料建立具有預測能力的人工智慧模型,其中包括想要更妥善地管理庫存的零售業者、想要更聰明地預測財務狀況的金融機構,還有想要更快檢測疾病和降低管理成本的醫療機構。

使用 AML 服務上 RAPIDS 的企業,可以把訓練人工智慧模型所需的時間減少二十倍,將原本的幾天減少到幾小時,或是從原本的幾小時減少到幾分鐘,減少幅度取決於使用的資料集大小。這是首度將 RAPIDS 整合到雲端資料科學平台的舉動。

Walmart 很早便開始使用 RAPIDS,用它來提高預測的準確性。

「RAPIDS 軟體有顯著擴大我們的特徵工程流程的潛力,使得我們能運行最為複雜的機器學習模型,進一步提高預測準確性。我們很高興 Azure Machine Learning 服務與 NVIDIA 合作,資料科學家便能享受到有著 RAPIDS 和 GPU 支援的運算能力,讓我們能在 Azure 雲端環境裡運行 RAPIDS。」Walmart 供應鏈技術與雲端部門資深副總裁 Srini Venkatesan 說。

AML 服務上的 RAPIDS 以 Jupyter Notebook 的形態出現,使用 AML 服務 SDK 來建立資源群組、工作區、叢集,以及有著正確配置和函式庫的環境,以便使用 RAPIDS 代碼。用戶也能使用範本腳本來嘗試多種資料規模和 GPU 數量,還有設定 CPU 基線。

微軟 Azure AI 部門副總裁 Eric Boyd 說:「我們的願景是提供最好的技術,協助客戶進行轉型。Azure Machine Learning 服務是建立和部署機器學習模型的最佳平台,我們很高興能幫助資料科學家使用 Azure 與 NVIDIA 的 GPU 加速技術,大幅提升他們的工作表現。」

深入瞭解 NVIDIA CUDA-X AI 加速函式庫

閱讀 Microsoft Azure 的部落格,或是參加這場 GTC 會議以瞭解如何在 Azure Machine Learning 服務上使用 RAPIDS。

a {
text-decoration: none;
}