透過 NVIDIA 2025 年 GTC 大會,探索 RTX AI PC 與工作站如何加速 AI 的開發

產業的各界專家將於此全球 AI 大會,分享在本機部署 AI 的深入見解。
作者 Jesse Clayton

生成式 AI 持續重新定義運算,甚至開創新的方式,在 PC 和工作站組建、訓練、最佳化 AI 模型。AI 驅動的 PC 和工作站正在徹底改變內容創作、大小語言模型、軟體開發的工作流程,同時提升生產力。

AI 生態系的各界專家將於 3 月 17 至 21 日在聖荷西會議中心舉行的 2025 年 GTC 大會中分享深入見解,就本機部署 AI、最佳化模型,及利用先進軟硬體提升 AI 工作負載等方面進行探討,而屆時也將特別介紹 RTX AI PC 和工作站的關鍵進展。

RTX 的開發及部署

RTX GPU 搭載專用 AI 硬體「Tensor 核心」提供運算所需效能,執行最新、最耗能的 AI 模型。這些高效能 GPU 有助打造數位人、聊天機器人、AI 生成的播客等。

GeForce RTX 和 NVIDIA RTX™ GPU 的使用者人數超過 1 億,所以部署新的 AI 應用程式和功能時,開發人員必須面對廣大的目標受眾。NVIDIA 資深產品經理 Annamalai Chockalingam 將於「利用 RTX PC 和工作站打造數位人、聊天機器人、AI 生成播客」的演講中,展示端對端工具套件。開發人員可使用此套件簡化開發,大幅加速部署 AI 支援的應用程式。

模型行為

大型語言模型 (LLM) 可用於眾多使用案例,也可加以擴充,解決如撰寫程式碼或將日文翻譯為希臘文等各式複雜工作。但鑑於大型語言模型的訓練一般是使用廣泛且普遍的應用知識,可能不適合特定工作,例如遊戲中非玩家角色的對話生成。反觀小型語言模型,縮小的規模能平衡需求外,在多個裝置上本機執行時,也能維持準確度。

NVIDIA 資深工程經理 Oluwatobi Olabiyi 將於「留意用語:打造可在裝置執行的小型語言模型」的演講中展示多款工具和技術。開發人員和愛好者可使用這些工具和技術生成、收集整理與蒸餾資料集,然後訓練小型語言模型執行專門的工作。

充分發揮 Windows 工作站的 AI 效能

若要在 Windows 工作站上提升 AI 推論和模型執行能力,軟體和硬體即需要視各種硬體設定和軟體環境,作出策略性調整。在「Windows 工作站的 AI 工作負載最佳化:策略和最佳做法」的演講中,將探索 AI 最佳化的最佳做法,包括量化模型、提升推論流程和微調硬體感知。

此外,NVIDIA 軟體工程師團隊將介紹 ONNX Runtime 硬體感知最佳化技術、NVIDIA TensorRT 和 llama.cpp,協助開發人員充分發揮 GPU、CPU 和 NPU 的 AI 效率。

推動本機 AI 開發

只要在本機基礎架構組建、測試、部署 AI 模型,即使不連線雲端服務,仍可確保安全性與效能。Z by HP 的 AI 解決方案採用 NVIDIA RTX GPU 進行加速,提供本機開發 AI 所需的工具,同時維持掌控資料和 IP。

參加以下演講,瞭解更多資訊:

開發人員和愛好者可使用 NVIDIA NIM 微服務,在 RTX AI PC 和工作站開展 AI 開發。今日推出的初始公開測試版,包括 Llama 3.1 LLM、自動語音辨識 (ASR) 的 NVIDIA Riva Parakeet 和電腦視覺的 YOLOX。

NIM 微服務是針對生成式 AI 設計的最佳化,且預先封裝的模型,其中包含對 PC 開發十分重要的各類模態,不但易於下載,且可透過業界標準的應用程式設計介面進行連接。

參加 2025 年 GTC 大會

NVIDIA 創辦人暨執行長黃仁勳將進行主題演講,此外,有超過 1,000 場深具啟發性的演講、300多場展覽、技術實作訓練和無數專場交流活動。GTC 大會預計將再次聚焦 AI 及其帶來的優勢。

關注 NVIDIA AI PC 的 FacebookInstagramTikTokX,及訂閱 RTX AI PC 電子報以隨時掌握最新消息。