Mistral AI 今日宣布推出 Mistral 3 系列開源多語言、多模態模型,該系列模型針對 NVIDIA 超級運算與邊緣平台進行最佳化。
Mistral Large 3 為混合專家(MoE)模型,無需為每個詞元啟動所有神經元,而是僅啟動模型中最具影響力的部分。此設計在不浪費資源的情況下實現規模化,並在不犧牲準確性的前提下實現高效運作,使企業級人工智慧(AI)不僅成為可能,而且具備真正實用性。
Mistral AI 的全新模型為企業級 AI 提供業界領先的準確性和效率。從 12 月 2 日(星期二)開始,該模型將在雲端、資料中心和邊緣等各種環境中啟用。
憑藉 410 億個有效參數、6,750 億總參數及大型的25.6萬情境窗口(context window),Mistral Large 3 將為企業AI工作負載提供可擴展性、高效能與適應性。
透過結合 NVIDIA GB200 NVL72 系統和 Mistral AI 的混合專家架構,企業可以高效部署和擴展大規模 AI 模型,並從先進的平行處理和硬體最佳化中受益。
這樣的結合標誌著此次發布正邁向 Mistral AI 所稱的「分散式智慧(distributed intelligence)」時代,進一步彌合研究突破與現實應用之間的差距。
該模型採用細粒度的混合專家架構,利用 NVIDIA NVLink 的記憶體一致性域和廣泛的專家並行最佳化,充分釋放了大規模專家並行運算的效能優勢。
這些優勢與保持準確度的低精度 NVFP4 格式及 NVIDIA Dynamo 分散式推論最佳化技術相疊加,確保大規模訓練與推論任務達到巔峰效能。
在 GB200 NVL72 上,Mistral Large 3 的效能相較前一代 NVIDIA H200 提升了 10 倍。此代產品的躍進帶來更優異的使用者體驗、讓每個詞元的成本更低,並創造更高的能源效率。
Mistral AI 不僅引領著前沿大型語言模型發展,也發布 9 款小型語言模型,幫助開發者隨時隨地運行 AI。
精巧的 Ministral 3 套件針對 NVIDIA 的邊緣平台進行最佳化,涵蓋 NVIDIA Spark、RTX桌上型和筆記型電腦,以及 NVIDIA Jetson 裝置。
為了實現最佳效能,NVIDIA 與 Llama.cpp 和 Ollama 等頂尖 AI 框架合作,在邊緣端的 NVIDIA GPU 上發揮極致效能。
開發人員與業餘玩家現可透過 Llama.cpp 和 Ollama 體驗 Ministral 3 套件,在邊緣端快速且高效地運行 AI。
Mistral 3 系列模型已全面開放,賦能全球研究人員和開發人員進行實驗、客製化並加速 AI 創新,同時普及前沿級別的技術。
透過將 Mistral AI 的模型與Data Designer、Customizer、Guardrails 和 NeMo Agent Toolkit 等用於 AI 代理生命週期開發的開源 NVIDIA NeMo 工具相連接,企業可以根據自身應用場景進一步客製化這些模型,加速從原型開發到生產部署的進程。
為了實現從雲端到邊緣的效能最佳化,NVIDIA 已針對 Mistral 3 系列模型進行推論框架的最佳化,包含 NVIDIA TensorRT-LLM、SGLang 及 vLLM。
Mistral 3 目前已在主流開源平台和雲端服務供應商上架。此外,這些模型預計很快將能以 NVIDIA NIM 微服務的形式進行部署。
無論 AI 應用需求延伸至何處,這些模型都已準備就緒。
請參閱軟體產品資訊的通知。
