為了在競爭激烈的AI戰場中維持霸主地位,NVIDIA目前佈局已經超越單純的GPU硬體銷售,繼日前接連宣布對外投資OpenAI等業者、入股電子設計自動化業者Synopsys,稍早更宣布收購開源工作負載調度軟體開發商SchedMD,並且推出採用全新Mamba-Transformer混合架構的Nemotron 3系列AI模型。這一連串動作顯示 NVIDIA正試圖從底層算力管理到上層模型應用,全面築起高聳的生態系護城河。
買下SchedMD,掌握AI算力的「交通指揮官」
NVIDIA宣布收購總部位於加州的SchedMD。這家公司或許對一般大眾來說很陌生,但在超級電腦與高效能運算 (HPC) 領域卻是赫赫有名,因為他們正是知名的開源工作負載管理器Slurm的主要維護者與商業支持提供商。
Slurm被廣泛應用於全球的資料中心與超級電腦 (包括NVIDIA自家系統),用來管理龐大的運算任務排程。隨著生成式AI的訓練與推論需求爆炸性增長,如何有效率地調度成千上萬顆GPU成為關鍵,因此也讓Slurm應用需求增加。
NVIDIA在官方部落格中強調,收購後將繼續維持SchedMD的開源商業模式。透過這次收購,NVIDIA不僅能確保這個「AI基礎設施的關鍵拼圖」能與自家硬體進行更深度的最佳化,也能更緊密地綁定雲端基礎設施客戶 (如CoreWeave)與學術研究機構。
Nemotron 3登場:Mamba架構打破三難困境
同日,NVIDIA也揭曉最新的AI模型系列「Nemotron 3」。這次更新的重點不在於單純堆疊參數,而是架構上的革新。
NVIDIA生成式AI軟體副總裁Kari Briski指出,目前的開發者面臨著「極度開放、極度聰明、極度高效」的三難困境 (Trifecta)。為了突破瓶頸,Nemotron 3採用結合近期興起的Mamba,以及廣泛使用的Transformer所建立混合專家模型 (MoE) 架構。
這種混合架構的優勢在於引入了「選擇性狀態空間模型」,使其在處理長達100萬組詞元 (token)的超長上下文 (Context) 時,不需要像傳統Transformer那樣建立龐大的注意力圖譜 (Attention Maps) 與快取。
根據NVIDIA的數據顯示「Nemotron 3」有以下提升:
• 傳輸量 (Throughput):較前代提升4倍。
• 推論成本:由於減少60%的推論token生成,大幅降低運作成本。
三種尺寸、NeMo Gym同步亮相
Nemotron 3 系列依應用場景分為三種規格:
• Nano (30B):針對高效率特定任務。
• Super (100B):具備高精準度,適用多代理應用。
• Ultra (500B):專攻複雜運算的大型推論引擎。
此外,NVIDIA也推出了強化學習實驗室「NeMo Gym」,這是一個讓開發者在模擬環境中訓練模型與代理人 (Agent) 的工具,概念類似於讓AI進健身房「鍛鍊」。目前包括甲骨文、西門子與Zoom等企業都已成為早期採用者。
分析觀點:從「賣鏟子」到「蓋城堡」
筆者認為,NVIDIA這兩手策略相當高明且具防禦性。
收購SchedMD是為了鞏固底層:當所有人都用Slurm來調度GPU,NVIDIA 就掌握了資料中心的作業系統層級話語權,防止競爭對手 (如AMD或Intel)在軟體調度層面上突圍。
推出Nemotron 3則是為了定義標準:在Transformer架構逐漸遇到效能瓶頸的當下,NVIDIA率先押注Mamba混合架構,並且提供完整的NeMo Gym工具鏈。這不僅是為了賣更多晶片,更是為了讓開發者習慣由NVIDIA定義的軟體生態。當模型架構、訓練工具到算力調度全都依賴NVIDIA時,要跳槽到其他平台的成本就變得更高了。









