NVIDIA 執行長表示:「我們為生成式人工智慧時代打造了一款處理器」

NVIDIA 創辦人暨執行長黃仁勳為迄今為止規模最盛大的 GTC 大會揭開序幕,並且宣布 NVIDIA 將推出 NVIDIA Blackwell、NIM 微服務、Omniverse Cloud API 等多款重量級產品。
作者 Brian Caulfield

生成式人工智慧 (AI) 有望徹底改變它所觸及的每一個產業 – 所需要的只是迎接挑戰的技術。

NVIDIA 創辦人暨執行長黃仁勳週一介紹了這項技術 – NVIDIA 新推出的 Blackwell 運算平台,並且介紹了提升運算能力能夠為從軟體到服務、機器人到醫療技術等各個領域帶來的重大進步。

「加速運算已經達到轉折點 – 通用運算已經失去動力。」黃仁勳在矽谷寬敞的 SAP 中心場館的舞台上,向來到現場的 11,000 多名 GTC 大會與會者發表主題演講,而線上還有數以萬計的與會者同步聆聽這場精彩演講。

「我們需要另一種運算方式 – 如此一來我們才能繼續擴大規模,才能繼續降低運算成本,才能在持續消耗越來越多運算資源的同時,保持永續發展。而每個產業裡,加速運算都比通用運算的速度要快上很多。

黃仁勳在如同一個網球場大小的巨幅 40 呎高 8K 螢幕前進行這場重要的主題演講,現場擠滿了來自各行各業的執行長、開發人員、AI迷和企業家,他們在這個春光明媚的日子裡從聖荷西會議中心步行 20 分鐘來到會場。

為全球的AI基礎設施帶來巨大升級,黃仁勳介紹了 NVIDIA Blackwell 平台,以釋放即時生成式 AI 在兆級參數大型語言模型上的潛力。

黃仁勳又介紹了 NVIDIA NIM(NVIDIA 推論微服務),這是一種打包和提供軟體的全新方式,可以將開發人員與數以億計的 GPU 連接起來,以部署各種客製化的AI項目。

黃仁勳介紹了 Omniverse Cloud API,它能夠提供先進的模擬功能,以將 AI 帶入實體世界。

黃仁勳透過穿插強而有力的展示內容、與部分全球最大企業的合作關係以及超過二十個詳細闡述其願景的公告,突顯了這些重大宣布的重要性。

十五年來,GTC 大會已經從最早在當地一間酒店宴會廳裡舉辦的活動,發展成為全球最重要的 AI 大會,這也是它五年來首次回歸實體活動。

今年的 GTC 大會共有 900 多場會議 – 包括由黃仁勳主持與最早開發出這項技術的八位先驅者參加的 Transformer 討論活動,以及 300 多場展示會及 20 多場技術研討會。

這是一場AI與一切領域交匯的盛會。在主題演講令人驚豔的開場表演中,世界領先 AI 藝術家 Refik Anadol 展示了一個巨大的即時 AI 資料雕塑,綠色、藍色、黃色和紅色的波浪狀漩渦在螢幕上碰撞、扭曲和展開。

黃仁勳在主題演講開始時表示多模態 AI 的興起 – 能夠處理由不同模型處理的各種資料類型 – 賦予了 AI 更強大的適應性和能力。而在加入更多參數之後,這些模型可以處理更複雜的分析工作。

但這也意味著對運算能力的需求大幅增加。隨著這些協作式多模態系統變得越來越錯綜複雜,其中有著上兆個參數,對先進運算基礎設施的需求也隨之增加。

「我們需要更大的模型。我們要用多模態資料來訓練它,不光是網路上的文字,我們要用文字和影像、圖形和圖表來訓練它,就像我們學習看電視一樣,這些模型還要看一大堆影片。」黃仁勳說。

下一代的加速運算

一言以蔽之,黃仁勳表示「我們需要更大的 GPU」。Blackwell 平台便是為因應這個難題而生。黃仁勳從口袋裡拿出一塊 Blackwell 架構晶片,將它跟一塊 Hopper 架構晶片並排放在一起,結果顯示Blackwell晶片遠大於 Hopper 晶片。。

接續兩年前推出之 NVIDIA Hopper  架構的全新 Blackwell 架構,是以加州大學伯克利分校專攻博弈論和統計學的數學家 David Harold Blackwell 命名,他也是首位入選美國國家科學院的黑人學者。

每個 Blackwell 架構晶片在用於訓練的 FP8 精度方面,效能表現是前一代產品的 2.5 倍,而在用於推論的 FP4 精度方面,效能表現前一代產品的 5 倍。它採用第五代 NVLink 互連技術,速度是 Hopper 架構的兩倍,可擴大到 576 個 GPU。

NVIDIA GB200 Grace Blackwell Superchip 以 900GB/s 超低功耗 NVLink 晶片到晶片互連技術,將兩個 Blackwell 架構 NVIDIA B200 Tensor 核心 GPU 與 NVIDIA Grace CPU 連接。

黃仁勳舉起一塊裝有這套系統的主機板。黃仁勳說:「這台電腦是同類產品中第一台能夠在這麼小的空間裡,裝入這麼強大的運算能力。由於它採用記憶體一致性技術,它們感覺就像在一個快樂的大家庭在一個應用程式上一起工作。」

GB200 系統可以與同樣在今日宣布推出的 NVIDIA Quantum-X800 InfiniBand 和 Spectrum-X800 乙太網路平台連接,能夠提供速度高達 800Gb/s 的先進網路,以獲得最高的 AI 效能。

「我們省下無比巨大的能源、網路頻寬及浪費掉的時間。未來是生成式的…這正是為什麼說它是一個全新產業的原因。我們的運算方式出現根本性的改變。我們為生成式 AI 時代創造了一款處理器。」黃仁勳說。

NVIDIA 為了擴大 Blackwell 架構的規模,打造了名為 NVLink Switch 的新款晶片。每一個 NVLink Switch 晶片能夠以每秒 1.8 TB 的速度連接四個 NVLink 互連,並透過減少網內流量的方式來減少流量。

NVIDIA Switch 與 NVIDIA GB200 是黃仁勳所描述的「一個巨大 GPU」的重要組成部分,而這個「巨大的 GPU」NVIDIA GB200 NVL72 是一個多節點、液冷、機架規模的系統,利用 Blackwell 架構為兆級參數模型提供超強大運算能力,在單一機架上的 AI 訓練運算能力達到 720 petaflops,人工智慧推論運算能力達到 1.4 exaflops。

「在我們說話的時候,地球上只有幾台,也許只有三台達到 exaflop (百萬兆浮點運算)等級運算能力的機器。」黃仁勳在談到這台由 60 萬個零件組成、重達 3000 磅的機器時如此說道。「所以這是一個單機架、運算能力達到 exaflop 等級的 AI 系統。好吧,讓我們看看它的背面。」

NVIDIA 今日還推出下一代人工智慧超級電腦 – 搭載 NVIDIA GB200 Grace Blackwell Superchips 的 NVIDIA DGX SuperPOD,這款超級電腦能夠處理擁有上兆個參數的模型,並且為超大規模的生成式AI訓練和推論工作負載提供穩定的正常運行時間。

由 NVIDIA DG GB200 系統建構而成的全新 DGX SuperPOD 採用新型高效液冷機架式架構,可在 FP4 精度下提供 11.5 exaflops 的AI超級運算能力及 240 TB 的高速記憶體,可透過增加機架的方式來擴大規模。

「未來,資料中心將被視為 AI 工廠。它們存在的目標就是創造營收,此所指的就是智慧。」黃仁勳說。

產業界已經支援 Blackwell 架構。

宣布推出 Blackwell 架構的新聞稿中,可以見到 Alphabet和 Google 執行長 Sundar Pichai、亞馬遜執行長 Andy Jassy、戴爾科技集團執行長 Michael Dell、Google DeepMind 執行長 Demis Hassabis、Meta 執行長 Mark Zuckerberg、微軟執行長 Satya Nadella、OpenAI 執行長 Sam Altman 、Oracle 董事長 Larry Ellison,以及 Tesla 與 xAI 執行長 Elon Musk 對它的支持。

全球各大雲端服務供應商、領先的AI公司、系統和伺服器供應商,以及世界各地的區域雲端服務供應商和電信公司都將採用 Blackwell 架構。

「整個產業界都在為 Blackwell 架構做足準備。」黃仁勳說,這將是 NVIDIA 公司歷史上最成功的產品推出。

創建軟體的全新方式

黃仁勳說生成式AI改變了寫程式的方式。

他解釋道,公司將組裝人工智慧模型,賦予它們任務,給出工作產品範例,檢視計畫和中間的結果,而不是編寫軟體。

而這些軟體包,也就是 NVIDIA NIM,是由 NVIDIA 加速運算函式庫和生成式 AI 模型建構而成。

「以後我們要怎麼建構軟體?你不太可能從頭開始寫,也不太可能寫一大堆 Python 程式碼或類似的東西。很有可能你會組織一支 AI 團隊。」黃仁勳說。

微服務支援業界標準 API,很容易就能連接,可以在 NVIDIA 龐大的 CUDA 安裝基礎上運行,針對新的 GPU 重新進行最佳化,並且不斷掃描安全漏洞和風險。

黃仁勳說客戶可以使用現成的 NIM 微服務,或是NVIDIA 可以幫助客戶打造專屬的 AI 和輔助夥伴,把只有特定公司才會有的專業技能教給一個模型,以建立無價的全新服務。

「企業 IT 產業坐擁一座金礦,他們擁有多年來所創造出這些超厲害的工具(還有資料)。如果他們能把這座金礦變成輔助夥伴,這些輔助夥伴就能幫助我們做事。」黃仁勳說。

主要科技業者已經開始做到這件事。黃仁勳詳細介紹了 NVIDIA 如何幫助 Cohesity、NetApp、SAP、ServiceNow 和 Snowflake 建構輔助夥伴和虛擬助手。各產業也紛紛加入這個行列。

黃仁勳宣布對電信領域推出由生成式 AI 和 Omniverse 驅動的 NVIDIA 6G Research Cloud 平台,推動下一個通訊時代的發展。NVIDIA 以 Sionna 神經無線電框架、NVIDIA Aerial CUDA 加速無線存取網路及 NVIDIA Aerial Omniverse Digital Twin for 6G 打造這個平台。

黃仁勳宣布 NVIDIA 在半導體設計與製造領域與台積公司及新思科技(Synopsys)合作,將其突破性的運算式微影平台 cuLitho 導入至生產。該平台將把處理半導體製程中運算最密集之工作負載的速度加快 40 到 60 倍。

黃仁勳還宣布現已推出 NVIDIA 地球氣候數位孿生雲端平台,能夠做到互動式高解析度模擬,加快預測氣候和天氣的速度。

黃仁勳表示,AI 最大的影響將在醫療保健領域,而 NVIDIA 已經在成像系統、基因測序儀器中使用AI,並且與多家大型手術機器人公司合作。

NVIDIA 將推出一款新型生物軟體。NVIDIA 今日推出二十多個全新微服務項目,讓全球醫療保健領域的業者能夠在任何地方、任何雲端平台上利用生成式 AI 的最新進展。它們提供先進的成像、自然語言和語音識別,以及數位生物學生成、預測和模擬等功能。

Omniverse AI 帶入實體世界

黃仁勳表示下一波 AI 浪潮將是 AI 學習實體世界。

他說:「我們需要一個模擬引擎,以數位方式將這個世界的不同面貌呈現給機器人看,這樣機器人就有了學習如何成為一個機器人的健身房。我們稱這個虛擬世界為 Omniverse。」

正因如此,NVIDIA 今日宣布 NVIDIA Omniverse Cloud 將以 API 的形式提供給外界使用,將此全球領先的平台擴展出去,提供整個軟替製造商生態系統創建工業數位孿生應用程式和工作流程。。

開發人員可以利用五個新的 Omniverse Cloud 應用程式編程介面,輕鬆將核心Omniverse整合到現有的設計和自動化軟體應用程式中,用於數位孿生,或者用於測試和驗證像是機器人或自動駕駛車輛這種自主機器的模擬工作流程。黃仁勳展示一個機器人倉庫,以說明其中的工作原理 – 在這個倉庫裡使用多部攝影機進行感知和追蹤 – 以監視工人並協調機器人堆高機,在整個機器人堆疊運行的情況下自動駕駛這些堆高機。

黃仁勳還宣布 NVIDIA 將把 Omniverse 用在蘋果公司的 Vision Pro 頭戴式裝置上,開發人員可以透過新的 Omniverse Cloud API 以串流方式將互動式工業數位孿生內容傳送到 VR 頭戴式裝置。

部分世界上最大的工業軟體製造商將採用 Omniverse Cloud API,其中包括 Ansys、Cadence、達梭系統公司的 3DEXCITE 品牌、Hexagon、微軟、洛克威爾自動化公司、西門子與 Trimble。

機器人

黃仁勳表示所有移動的東西都將是機器人。汽車產業將成為其中的重要組成部分。NVIDIA 的電腦已經用於汽車、卡車、送貨機器人和自動駕駛計程車。

黃仁勳宣布全球最大的自動駕駛車公司比亞迪已經為其自動駕駛車選用 NVIDIA 的下一代電腦,在 DRIVE Thor 平台上打造該公司的下一代電動車車隊。

為了幫助機器人更深入瞭解周圍環境,黃仁勳還宣布推出 Isaac Perceptor 軟體開發套件,該套件具有最先進的多攝影機視覺里程計、3D 重建和佔據地圖 (occupancy map)及深度感知功能。

NVIDIA 宣布推出先進的機械臂感知、路徑規畫和運動學控制庫 Isaac Manipulator,以幫助機械手臂提高適應力。

黃仁勳最後宣布用於人形機器人的通用基礎模型 Project GR00T,以進一步推動 NVIDIA 在機器人和嵌入式AI領域取得突破性進展。

為了支持這項專案,黃仁勳推出了一款用於人形機器人的新型電腦 Jetson Thor,該電腦基於 NVIDIA Thor 系統單晶片,並對 NVIDIA Isaac 機器人平台進行了重大升級

黃仁勳在主題演講的最後幾分鐘,在舞台上展示由迪士尼研究中心(Disney Research)開發出以 NVIDIA 技術驅動的兩具小型機器人。

他說:「NVIDIA 的靈魂是電腦圖形、物理學和人工智慧的交集。這一切都在這一刻完全展現。」