NVIDIA (輝達) 今日揭曉支援 NVIDIA HGX™ AI 超級運算平台的 NVIDIA® A100 80GB GPU,其記憶體容量較前一代多出一倍,為研究人員與工程師帶來前所未有的速度與效能,解鎖新一波 AI 與科學研究突破的潛能。
全新 A100 搭載 HBM2e 技術,將 A100 40GB GPU 的高頻寬記憶體容量加倍至 80GB,並提供每秒超過 2 terabytes (TB) 的記憶體頻寬。如此充裕的頻寬讓資料能快速匯入全球最快的資料中心 GPU A100,讓研究人員能進一步推升其應用的速度,以處理更龐大的模型與資料集。
NVIDIA 深度學習應用研究部門副總裁 Bryan Catanzaro 表示:「若想獲得高效能運算 (HPC) 與人工智慧 (AI) 最頂尖的研究成果,就必須建立極龐大的模型,而這也代表將會需要比過去更多的記憶體容量和傳輸頻寬。A100 80GB GPU 提供比六個月前推出的前一代 GPU 多一倍的記憶體容量,還突破每秒 2TB 的頻寬瓶頸,讓研究人員能克服全球最重要的科學與大數據研究難題。」
NVIDIA A100 80GB GPU 現已搭載於 NVIDIA DGX™ A100 和今日發表的 NVIDIA DGX Station™ A100 系統,預計在本季開始出貨。
包括 Atos、戴爾科技 (Dell Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、慧與科技 (Hewlett Packard Enterprise)、浪潮 (Inspur Electronic Information)、聯想 (Lenovo)、廣達 (Quanta) 和美超微 (Supermicro) 等頂尖系統大廠,預計於 2021 上半年開始提供整合四個或八個 A100 80GB GPU 基板的 HGX A100 。
緩解資料密集的作業負載
建立於具備多元功能的 A100 40GB,此次推出的 80GB 版本能因應龐大資料記憶體的需求,適用於更大範圍的應用。
在 AI 訓練方面,例如 DLRM 這類含有大量表格以記載數十億名用戶及數十億項產品的推薦系統模型,由於 A100 80GB 能提供 3 倍的加速效果,因此企業能快速重新訓練這些模型,以提供高精準度的建議。
此外,A100 80GB 還能訓練最龐大的模型,透過套用更多參數,導入到配備單一 HGX 的伺服器,例如 GPT-2 – 一個運用自然語言處理模型來執行超越人類的文字生成功能。如此一來就不再需要耗費大量時間建置資料或模型平行處理架構,而且這類技術在跨多個節點運行時速度過慢。
憑藉本身具備的多執行個體GPU (MIG) 技術,A100 可切分成 7 個 GPU 執行個體,而單一個體配有 10GB 的記憶體,構成安全無虞的硬體分隔區,並能為各種規模較小的作業負載提供最高的 GPU 資源使用率。對於像 RNN-T 這類自動語音辨識模型的 AI 推論,光靠一個 A100 80GB MIG 執行個體就能處理更大的批量,在生成環境中的推論吞吐量提高 1.25 倍。
在 TB 規模的零售業大數據分析基準方面,A100 80GB 能產生最高 2 倍的效能,故能針對龐大的資料集快速獲得洞察,而企業則能透過這些隨時更新的資料即時做出關鍵決策。
在諸如氣象預報及量子化學等科學應用方面,A100 80GB 能提供強大的加速效果。例如像 Quantum Espresso 這款材料模擬軟體,在單節點 A100 80GB 系統運行可達到接近 2 倍的資料產出量提升。
日本理化學研究所計算科學研究中心 (RIKEN Center for Computational Science) 主任松岡聰 (Satoshi Matsuoka) 表示:「加速且充裕的記憶體頻寬與容量,是實現高效能超級運算應用的關鍵條件。NVIDIA A100 結合 80GB 的 HBM2e GPU 記憶體,以每秒 2 TB 帶來全球最快的傳輸頻寬,將為應用挹注大幅提升的效能表現。」
A100 80GB 的主要特色
A100 80GB 融入了許多 NVIDIA Ampere 架構的突破性功能,包含:
- 第 3 代 Tensor Cores:採用新格式 TF32,提供前一代 Volta 20 倍的 AI 吞吐量、5 倍 FP64 高效能運算資料處理速度、20 倍 INT8 AI 推論速度,並支援 BF16 資料格式。
- 更大、更快的 HBM2e GPU 記憶體:加倍的記憶體容量,和開創業界先河每秒超過 2TB 的記憶體頻寬。
- MIG 技術:每個執行個體配置加倍的記憶體,提供最多 7 個 MIG 各 10GB 的記憶體容量。
- 結構化稀疏 (Structural Sparsity) :提供至多 2 倍加速的推論稀疏模型。
- 第 3 代 NVLink 與 NVSwitch:GPU 與 GPU 之間的頻寬是前一代互連技術的 2 倍,讓 GPU 在執行資料密集作業負載時的傳輸速度加快到每秒 600 gigabyte。
NVIDIA HGX AI 超級運算平台
A100 80GB GPU 是 NVIDIA HGX AI 超級運算平台的關鍵元素,匯集了 NVIDIA GPU、NVIDIA NVLink®、NVIDIA InfiniBand 網路技術的力量,加上完全優化的 NVIDIA AI 與 HPC 軟體堆疊,發揮最高的應用效能。它讓研究人員與科學家能結合 HPC、資料分析及深度學習運算方法,推動科學研究的進展。
欲瞭解更多關於 NVIDIA A100 80GB 的細節,請準時參加於台灣時間 11 月 17 日早上 7 點登場的NVIDIA SC20 特別說明會。
掌握 NVIDIA 最新動態
請訂閱 NVIDIA 官方部落格或追蹤 Facebook、Twitter、LinkedIn 與 Instagram。瀏覽 NVIDIA 相關影片及圖片,請至 YouTube 或 Flickr。
關於 NVIDIA (輝達)
NVIDIA (輝達) 為人工智慧運算公司,自 1999 年發明 GPU 起,成功促進 PC 電競市場的成長並重新定義現代電腦繪圖卡產品,掀起電腦平行運算革命。近年來 GPU 深度學習也促發被視為下一個運算時代的人工智慧,透過 GPU 以類人腦方式運作於電腦、機器人與自駕車等,來感知並解讀真實世界。欲瞭解更多資訊,請瀏覽 https://blogs.nvidia.com.tw。
新聞聯絡人
NVIDIA 亞太資深公關經理 杜佳祐 電話:(02)6605-5856 傳真:(02)8751-1809 E-mail: Melody Tu |
世紀奧美公關顧問 蔣葳/黃晨瑀/詹淑君 電話:(02) 2577-2100 分機 808/826/807 傳真:(02) 2577-1600 行動電話: 0989-540634/ 0931-309553/ 0975-251507 E-mail: Vivian Chiang/ Bonnie Huang/ Shirley Chan |
本新聞稿中的部分聲明包括但不限於有關以下內容的聲明:NVIDIA A100 80GB GPU的優勢、效能、特色及功能;將提供NVIDIA A100 系統的系統大廠以及推出的時間;A100 80GB 提供更多記憶體容量和更快的速度,幫助研究人員克服全球最艱難的研究挑戰;A100 80GB GPU推出的時間;記憶體頻寬與容量是實現高效能超級運算應用的關鍵;NVIDIA A100 提供最快的傳輸頻寬,並為應用挹注大幅提升的效能表現;NVIDIA HGX 超級運算平台可提供最高的應用效能表現並大幅推動科學進步。這些前瞻性聲明包含可能導致實質結果與預期不符之風險與不確定因素。多項重要因素可能導致實際結果與前瞻性聲明所示之結果出現重大差異,所及範圍有全球經濟情況;我們的產品借重第三方協力廠商之製造、組合、封裝和測試之部分;技術發展和市場競爭之影響;新產品或技術之發展或我們現有產品與技術之提升;市場接受我們的產品或合作夥伴產品的程度;設計、製造或軟體的缺失;消費者偏好或需求之改變;業界標準和介面之改變;整合到系統後無法預期的產品或效能降低之技術缺失;以及我們定期提交給美國證券交易委員會(SEC)以 Form 10-Q 報告附本為基礎的Form 10-K財務季度等其他詳細因素。NVIDIA 在公司官方網站上免費提供定期提交給 SEC 的報告之副本。這些前瞻性聲明不保證未來的效能,只陳述目前的狀態,除非法律規定,否則 NVIDIA 沒有意願或義務更新或修改任何前瞻性聲明。
©2020 NVIDIA Corporation版權所有。NVIDIA、NVIDIA 標誌、NVIDIA DGX、NVIDIA DGX Station、NVIDIA HGX、NVLink 和 NVSwitch 是 NVIDIA Corporation 在美國和其他國家/地區的商標和/或註冊商標。其他公司和產品名稱可能為與之相關的各自公司的商標。功能、價格、供貨情況和規格如有變更,恕不另行通知。