搭載 Tensor 核心的 GPU 在每個遞交 MLPerf 評測項目中皆創下最佳效能記錄,更透過 NGC 全面釋出加速堆疊
NVIDIA (輝達) 今天宣布於業界所發表首波 AI 評測標準中,創下 6 項 AI 效能紀錄。
包括 Google、Intel、百度、NVIDIA 與其他數十家科技巨擘全力支持的 MLPerf 效能評測標準能用來評鑑各種深度學習作業負載的處理效能。作為業界首個客觀的 AI 效能評測標準,它涵蓋的領域包括電腦視覺、語言翻譯、個人化推薦與強化學習等方面。
NVIDIA在 6 項遞交的 MLPerf 評測項目中皆創下最佳的效能紀錄,從搭載 16 個 GPU 的單一節點到搭載 640 個 GPU 的 80 個節點所組成的系統,涵蓋各種作業負載與基礎設施的規模。
上述 6 個項目包括影像分類、物體切分、物體偵測、非常見語句翻譯、常見語句翻譯與推薦系統。NVIDIA 並未遞交第 7 項增強式學習的評測,因為該類運算並沒有充分發揮 GPU 加速的能力。
NVIDIA 技術在語言翻譯這個關鍵的評測項目中表現尤其優異,在 6.2 分鐘內就完成 Transformer 類神經網路的訓練。欲瞭解所有遞交的 6 項評測項目詳情, 敬請參閱 NVIDIA 開發者新聞中心。
NVIDIA 工程師在 NVIDIA DGX 系統上達成這次紀錄,該系統搭載了全球最強的 AI 系統 NVIDIA DGX-2,其以完整連結 16 個 V100 Tensor 核心 GPU 所打造。
NVIDIA 是唯一遞交 6 項評測項目的企業,此舉充分展現 V100 Tensor 核心 GPU 在現今部署各類 AI 作業負載中的多元化用途。
NVIDIA 副總裁暨加速運算總經理 Ian Buck 表示:「全新 MLPerf 評測標準展現 NVIDIA Tensor 核心 GPU 無可匹敵的效能與多元應用。該 GPU 在全球各地皆可透過各個雲端服務供應商與電腦製造商以合理的價格取得,協助全球開發人員提升 AI 在各階段發展的潛能。」
頂尖 AI 運算需要完整堆疊的全面創新
要在複雜且多元的運算作業負載上發揮卓越效能,需要的資源不光只有晶片,而加速運算涉及的層面也不僅止於加速器,需要動用到全部的元件堆疊。
NVIDIA 旗下的堆疊包含了 NVIDIA Tensor 核心、NVLink、NVSwitch、DGX 系統、CUDA、cuDNN、NCCL、最佳化深度學習框架容器與 NVIDIA 軟體開發套件。
NVIDIA AI 平台是最易取得、價格最合理的平台,Tensor 核心 GPU 現已在全球各地的各大雲端平台與電腦製造商供應取用。
透過最強大的桌上型 GPU NVIDIA TITAN RTX,與 Tensor 核心 GPU 相等的效能也能在桌機上發揮,其售價為 2,500 美金,若透過 3 年的分攤,其等同於每小時僅需消耗幾分美元。
此外,加速堆疊也將透過 NVIDIA GPU Cloud (NGC) 持續更新。
NVIDIA 創紀錄平台現正透過 NGC 開放使用
用來達成 NVIDIA 領先業界 MLPerf 效能所採用的軟體創新與最佳化技術,現正透過 NVIDIA NGC 深度學習容器免費開放各界使用。下載請至 NVIDIA NGC 容器登入服務官方網站。
這些容器內含完整的軟體堆疊與熱門的 AI 框架,其皆已由 NVIDIA 進行最佳化。NVIDIA NGC 18.11 版本深度學習容器中就亦含創新 MLPerf 紀錄所採用的軟體。
開發者可在每個開發階段將這些堆疊運用在任何領域:
- 對於使用桌機的資料科學家,可以透過 NVIDIA TITAN RTX GPU 進行頂尖研究。
- 對於團體用戶,可以透過 NVIDIA DGX 工作站系統執行上述容器。
- 對於企業方面,可以透過像阿里雲、AWS、百度雲、 Google Cloud、IBM Cloud、Microsoft Azure、Oracle Cloud Infrastructure 與騰訊雲等環境中執行 NVIDIA GPU 加速,提高各種 AI 應用處理資料的速度。
- 對於著手建構 AI 基礎設施的機構,可以透過各種 NVIDIA DGX 系統,例如Atos、思科、Cray、Dell EMC、惠普、HPE、浪潮、聯想、中科曙光和美超微 (Supermicro) 等廠商所推出的 NGC-Ready 系統,進行 AI 作業。
欲拓展您的 AI 專案或執行 MLPerf 評測,請至 NGC 容器登入服務下載相關容器。