著眼資料中心日益繁重的AI工作負載,NVIDIA於 2026年度的GTC大會宣佈其Vera Rubin平台已正式展開量產,並以七款晶片、五種機架配置與整體POD級系統架構,瞄準全球下一波AI工廠建設需求。這套平台整合Vera CPU、Rubin GPU、NVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 乙太網路交換器,以及新整合的 NVIDIA Groq 3 LPU,企圖把 AI 基礎設施從「伺服器堆疊」推向真正協同設計的超級電腦系統。
NVIDIA創辦人暨執行長黃仁勳形容,Vera Rubin是一次「跨世代躍進」,因為它不只是單一GPU或 CPU 的升級,而是為代理型AI全流程打造的運算底座。從 Anthropic、OpenAI 到 Mistral AI,都在官方聲明中點出同一件事:當模型開始承擔推理、工具呼叫、多輪互動與任務執行,背後基礎設施必須同時滿足大規模運算、低延遲互連、高效率儲存與穩定系統設計,否則 AI 服務的可靠性與商業化速度都將受限。
Vera Rubin是POD級AI超級電腦
Vera Rubin平台的關鍵,在於NVIDIA 將「機架」視為 AI 時代的基本運算單元。其中,Vera Rubin NVL72機架整合72 顆Rubin GPU與36顆Vera CPU,並透過NVLink 6、ConnectX-9 SuperNIC與BlueField-4 DPU形成緊密互連系統。NVIDIA 表示,這套架構在訓練大型混合專家模型時,所需 GPU 數量僅為 Blackwell 平台的四分之一,推論資料輸送量每瓦最高可提升 10 倍,每個詞元成本則降至原先的十分之一,並可再透過 Quantum-X800 InfiniBand 與 Spectrum-X 乙太網路向外擴展至大規模 AI 叢集。
除了主力的NVL72,NVIDIA 也同步推出多種專為不同工作負載打造的機架。當中,Groq 3 LPX推論加速器機架鎖定低延遲、大情境的代理型系統需求,官方稱其與 Vera Rubin 協同運作後,針對兆級參數模型可帶來最高 35 倍的每兆瓦推論資料輸送量,並提升營收轉換能力。
另一方面,BlueField-4 STX 儲存機架則嘗試解決長情境與代理型 AI 的記憶體瓶頸,透過 AI 原生儲存層把 GPU 記憶體概念延伸到整個 POD,並結合 DOCA Memos 處理 KV Cache,讓情境共享與多輪互動效率進一步提升。至於 Spectrum-6 SPX 乙太網路機架,則聚焦 AI 工廠最關鍵的東西向流量,提供低延遲、高輸送量的機架間連線能力,並藉共同封裝光學技術改善能效與韌性。
Vera CPU從「配角」變成代理型 AI 時代關鍵控制層
若說 Rubin GPU 是大規模 AI 訓練與推論的主引擎,那麼 Vera CPU 就是代理型 AI 時代不可忽視的協調中樞。NVIDIA 在同日另行發布 Vera CPU,並將其定位為全球首款專為代理型 AI 與強化學習打造的處理器。與傳統機架級CPU相比,Vera的效率號稱可達兩倍、速度提升50%,其設計目的不只是支援GPU,而是直接承擔任務規劃、工具執行、資料互動、程式碼執行、驗證與協調等大量控制型工作。
在架構上,Vera採用88個NVIDIA自研Olympus 核心,支援空間多執行緒技術,可同時提供176條執行緒;記憶體則採用LPDDR5X,頻寬最高達 1.2 TB/s,官方強調相較傳統 CPU 可做到兩倍頻寬、僅一半功耗。若與 Rubin GPU 透過 NVLink-C2C 搭配,CPU 與 GPU 間可提供 1.8 TB/s 的一致性頻寬,約為 PCIe Gen 6 的 7 倍,進一步強化 AI 工廠內部資料流動效率。NVIDIA 也宣布推出可整合 256 顆液冷 Vera CPU 的 Vera CPU 機架,單櫃可支援超過 22,500 個並行 CPU 執行環境,對大規模代理與強化學習工作負載尤其關鍵。
從生態系角度來看,Vera CPU顯然不是概念性產品。NVIDIA 表示,阿里巴巴、字節跳動、Meta、Oracle Cloud Infrastructure,以及 CoreWeave、Lambda、Nebius、Nscale 等雲端與 AI 基礎設施業者都已投入部署;製造合作夥伴則涵蓋戴爾、慧與、聯想、美超微,以及華碩、仁寶、鴻海、技嘉、和碩、雲達、緯創與緯穎等系統廠。這意味著 Vera 不僅是 NVIDIA 為自家平台補上的 CPU 拼圖,也正試圖成為代理型 AI 時代的新一代伺服器標準。
AI工廠競賽已從算力延伸到電力、散熱與整體韌性
NVIDIA 不只談晶片與機架,也進一步把戰線拉到 AI 工廠的整體設計層面。該公司同步推出 Vera Rubin DSX AI Factory 參考設計,以及與 Omniverse DSX Blueprint 相容的數位分身藍圖,希望把運算、網路、儲存、供電與散熱一併納入協同設計。
根據 NVIDIA 說法,DSX Max-Q 可讓固定供電條件下的資料中心多部署 30% AI 基礎設施,而 DSX Flex 軟體則鎖定電網彈性與閒置電力調度,目標是讓 AI 工廠不只是高密度算力場域,也成為可被精細管理的基礎設施資產。
整體來看,Vera Rubin 平台真正想凸顯的,並非某顆晶片單點效能再創新高,而是 NVIDIA 正把 AI 資料中心重新定義為一座以Token產出、能耗效率、系統韌性與商業化速度為核心指標的「AI 工廠」。當代理型AI逐步從模型展示走向企業服務、程式碼助理、長情境推論與多代理工作流程,未來競爭焦點也不再只是誰有更大的模型,而是誰能以更低延遲、更高利用率與更可控的成本,把整座 AI 工廠穩定運轉起來。Vera Rubin與Vera CPU,正是NVIDIA 為這場新一輪基礎設施競賽率先佈下的關鍵棋子。
- NVIDIA Vera Rubin平台瞄準代理型AI基礎設施新世代 - 2026/03/20
- Intel宣佈Xeon 6將坐鎮NVIDIA DGX Rubin NVL8系統 - 2026/03/20
- 多肢協作:穿戴式機器手臂如何重塑人類極限 - 2026/03/19
訂閱MakerPRO知識充電報
與40000位開發者一同掌握科技創新的技術資訊!


