NVIDIA 執行長將 GPU 加速技術用在 Arm 架構,擴大高效能運算領域的範圍

作者 Brian Caulfield

火星、Microsoft 與海量資料成為今年 SC19 大會的焦點話題,黃仁勳詳細闡述了圖形、模擬及人工智慧這三個領域交集的發展前景。

NVIDIA 創辦人暨執行長黃仁勳週一宣布推出一款用於打造 GPU 加速 Arm 架構伺服器的參考設計平台,將對 GPU 加速超級運算技術的支持擴大到一個成長飛速的全新平台,此舉獲得業界的廣泛支持。

黃仁勳在週一於丹佛舉行的 2019年超級運算大會上,還透過他的主題演講宣佈 Microsoft 已經在其 Azure 雲端運算平台上建立了「超大執行個體」NDv2,這是全球最大的 GPU 加速雲端超級電腦

他還宣布 NVIDIA 將推出一套 GPU 加速輸入/輸出及儲存軟體 NVIDIA Magnum IO,以消除在處理人工智慧、資料科學與高效運算等方面工作負載時的資料傳輸瓶頸。

黃仁勳在他這場長達兩小時的主題演講中,除了宣布上述事項,還將業界的最新發展動態告訴外界,讓外界對於高效能運算技術如何進佔各領域,有更全面的認識。

高效能運算技術的全方位發展

在這場全球規模最盛大的超級運算活動揭開序幕之際,黃仁勳對座無虛席的約1,400名研究人員和技術人員表示:「高效能運算技術正同時朝各領域發展。無論是在超級運算中心、雲端還是邊緣,目前到處都用到高效能運算技術。」

從大型感應器矩陣串流傳輸高效能運算、使用邊緣計算進行更複雜的篩選作業、在雲端運行高效能運算、使用人工智慧來加速高效能運算,都是推動高效能運算技術全方位發展的重要因素。

黃仁勳說:「這些領域都在經歷巨大的變化。」

黃仁勳在演講中首度播放了一支全球最大型的互動式立體資料視覺化內容,引起場內一陣驚呼。NVIDIA 與 NASA 合作模擬火星登陸的過程,在這支影片中,一架約一棟雙層公寓大小的飛行器以時速1.2萬英里的速度呼嘯飛越宇宙,且在七分鐘內安全停下並登陸火星。

黃仁勳表示這項模擬內容以隨機存取的方式傳輸 150TB 的資料量,這個資料量相當於12.5萬張 DVD 的儲存量。「我們為此要在超級電腦旁配備一項超級運算分析工具。」

擴大高效能運算領域

黃仁勳在演講一開始便詳細介紹了加速運算技術如何助力當今計算科學家的研究工作,他將這些科學家稱為我們這個時代的達文西。

黃仁勳說第一批人工智慧超級電腦已經協助科學界進行在融合能、重力波等多個領域的研究工作。

與此同時,加速運算技術也推動 Exascale 等級運算系統的發展,以解決這個世界上部分最具挑戰性的難題。

其中包括勞倫斯伯克利國家實驗室找出極端氣候模式;橡樹嶺國家實驗室研究鴉片成癮的基因組學;勞倫斯伯克利國家實驗室、西北太平洋國家實驗室與布朗大學在華盛頓州漢福德核能儲存地的核廢料處置作為;以及由橡樹嶺國家實驗室與紐約州立大學石溪分校合作進行的癌症檢測研究。

同時也有愈來愈多產業開始採用人工智慧技術。本月初全球規模最大、每天要處理近五億件郵件的郵件包裹遞送服務機構美國郵政署宣佈,將採用 NVIDIA 的端到端人工智慧技術

「這正是串流人工智慧電腦最擅長的應用項目。」黃仁勳說。

黃仁勳在 10 月宣布 NVIDIA 將與 Ericsson、Microsoft、Red Hat 等業者合作,利用 NVIDIA EGX Edge 超級運算平台在企業及 5G 電信網路的邊緣提供人工智慧技術

高效能運算的下一步:利用大量軟體定義的感應器來傳遞資料給可編程的邊緣電腦,進而把人們最感興趣的資料傳遞給超級電腦,以便即時從海量資料中取得洞見。

Arm 架構攜手合作:GPU 加速技術提高新興高效能運算架構的運行速度

週一公布的事項對 Arm 領域來說,可謂一項重要的里程碑。普遍用於智慧型手機及物聯網裝置的 Arm 處理器架構,早就成為全球最熱門的處理器架構。黃仁勳預測目前已有超過一千億台運算裝置採用 Arm 架構處理器,在未來幾年將突破一兆台這個大關。

NVIDIA 迅速採取行動,將各種高效能運算工具帶入到這個蓬勃發展的商業生態體系當中。

「我們一直都跟這個產業有著各種合作機會,這個產業太棒了,各方都躍躍欲試。這會是一個非常棒的商業生態體系,基本上各種採用高效能運算技術的內容,應該都能在任何 CPU 上運行。」黃仁勳說,還說已經有三十個應用程式已經上線運行。

黃仁勳表示全球各大頂尖超級運算中心已經開始測試 GPU 加速 Arm 運算系統,包括美國的橡樹嶺與桑迪亞國家實驗室、英國布里斯托大學及日本的理化學研究所。

他還表示 NVIDIA 的參考設計 GPU 加速 Arm 架構伺服器由軟硬體兩個方面的建構模塊組成,目前已經獲得高效能運算與 Arm 架構商業生態體系中主要業者的支持。

NVIDIA 與 Arm 商業生態體系中的 Arm、Ampere、Fujitsu 和 Marvell 等業者合作,也跟 Hewlett Packard Enterprise 及其旗下的 Cray 合作。多間高效能運算軟體公司早就開始使用 NVIDIA CUDA-X 函式庫,將其啟用 GPU 的管理及監視工具帶入 Arm 商業生態體系。

NVIDIA 在今年初宣佈將把旗下的 CUDA-X 軟體平台引入 Arm 架構,隨後便公布了這款參考平台。為了兌現這項承諾,NVIDIA 的 Arm 架構相容軟體開發套件現已開放下載及預覽,其中包括 NVIDIA CUDA-X 函式庫與用於加速運算的開發工具。

Microsoft GPU 超級電腦帶入 Azure


「此舉使得全球每一位科學家都能擁有一台超級電腦。」黃仁勳在宣布現已可於 Microsoft Azure 的NDv2執行個體上使用到 GPU 加速的超級電腦。   

黃仁勳宣布推出 NDv2 這款搭載 GPU 的超級電腦,現已可在 Microsoft Azure 上使用到這款全球速度最快的超級電腦之一,讓高效能運算等領域的研究人員能夠立即取得前所未有的 GPU 運算能力。

「現在你可以打開一個執行個體、拿起其中一個…容器中的堆疊、在 Azure 上啟動它,接著進行科學研究活動。這真的太棒了。」黃仁勳說。

為處理最嚴苛之人工智慧與高效能運算應用項目而打造的 Azure NDv2 執行個體,可以擴大到搭配由 Mellanox InfiniBand 技術串連的800個 NVIDIA V100 Tensor Core GPU

這是史上首次研究人員與其他人可以按照自己的需求來租用整台人工智慧超級電腦,享受到跟要在公司內部花上數月才能完成部署之大型超級電腦系統的能力。

黃仁勳說需要快速解決問題的人工智慧研究人員,能夠快速啟動多個 Azure NDv2 執行個體,且在幾個小時內完成訓練複雜的對話式人工智慧模型。

像是 Microsoft 與 NVIDIA 的工程師在一項預先發布的叢集版本上使用64個 NDv2 執行個體,在約三小時內便完成 BERT 的訓練工作。BERT 是一種熱門的對話式人工智慧模型。

Magnum IO 軟體

黃仁勳介紹 NVIDIA Magnum IO 軟體套件,將協助人工智慧研究人員與資料科學家把移動資料的時間縮短到只要幾分鐘,不用像過去得花上幾個小時。


全球最盛大的超級運算領域盛會 SC19 大會開幕式活動座無虛席,有約1,400名研究人員與技術人員到場聆聽 NVIDIA 的主題演講。

Mangum IO 將多伺服器、多 GPU 運算節點的資料處理速度提高了二十倍,解決了人們在執行財務分析、建立氣候模型等複雜高效能運算工作方面所面臨的重大瓶頸。

黃仁勳表示:「高效能運算領域將充滿各項精彩的創新項目,我們將投入大量精力來協助各位將資訊搬入和搬出系統。

NVIDIA GPUDirect Storage 是Magnum IO的一項關鍵功能。它提供了一條連通 GPU 記憶體和儲存裝置的直接路徑,使得資料能夠繞過 CPU,在由 GPU、儲存裝置與網路設備提供的「開放式高速公路」上快速傳輸。

NVIDIA 與 DataDirect Networks、Excelero、IBM、Mellanox 及 WekaIO 等網路和儲存裝置產業的領導業者,密切合作開發出 Magnum IO。