英特爾今(17)日於NVIDIA GTC 2026大會上,宣布Intel Xeon 6將使用於NVIDIA DGX Rubin NVL8系統。
隨著工作負載轉向大規模、即時推論,此項合作進一步突顯了Xeon系列為GPU加速AI系統提供架構延續性與可擴充性的關鍵作用。

英特爾企業副總裁暨資料中心策略規劃部總經理Jeff McVeigh表示:「在代理式AI與推論系統的驅動下,AI正從大規模訓練轉向無所不在的即時推論。在這個新時代,Host CPU扮演至關重要的角色,負責管理GPU加速系統間的任務協調、記憶體存取、模型安全與吞吐量。Intel Xeon 6提供領先的效能、效率,並兼容於客戶賴以擴充推論工作的x86軟體生態系。」
隨著企業持續部署AI系統,推論能力的標準已不僅止於GPU吞吐量,也與CPU主導的系統效能息息相關。Host CPU不僅影響整體叢集效率與總體持有成本(TCO),還負責記憶體管理、任務調度及工作負載分配等關鍵功能,並確保現代AI基礎架構所需的安全性、可靠性與營運連續性。
基於這些系統級需求,Intel Xeon處理器以其支援高速記憶體、在多元工作負載下維持平衡效能、較低的長期總持有成本,以及成熟且經企業驗證的軟體生態系,因此成為DGX Rubin NVL8系統的主機處理器。此外,英特爾穩健強大的PCIe與I/O能力,進一步強化Xeon作為多元工作負載下高頻寬、低延遲平台的角色。
– 卓越的每瓦效能表現
– 針對AI軟體堆疊生態系的優化支援,包括新增對NVIDIA Dynamo的支援,以能夠實現CPU與即將推出的GPU之間的異質推論
– 在各任務關鍵環境中皆具備經過驗證的可靠性
– 對GPU加速異質系統間的卓越調度能力
Intel Xeon 6強化其作為現代AI基礎架構的基礎地位,實現橫跨資料中心、雲端及邊緣應用場景的可擴充部署。隨著AI推理規模擴大,從CPU到GPU資料路徑的端到端機密運算變得極為重要。Intel Trust Domain Extensions (Intel TDX)透過硬體級隔離與遠端驗證,進一步強化了Xeon作為現代AI叢集安全基礎的優勢。
NVIDIA DGX Rubin NVL8系統整合了Intel Xeon 6處理器,延續目前Blackwell平台(如DGX B300系統)中英特爾Xeon 6776P所建立的架構基礎。在此經過驗證的基礎上,英特爾持續將卓越效能、豐富經驗與系統級專業技術導入全新的DGX Rubin NVL8系統。
英特爾專為Xeon設計多項相關技術,以協助系統充分發揮GPU的最大潛力。透過Priority Core Turbo等功能,確保資料能持續高速傳輸至GPU;憑藉強大的單執行緒效能負責調度、排程與資料遷移,即使推理工作負載日益複雜,Xeon仍能確保系統運行順暢且高效。
Intel Xeon 6的關鍵特性:
– 支援高達8 TB系統記憶體,滿足大型模型與日益增長的KV快取需求
– 採用MRDIMM技術,記憶體頻寬較前一代提升2.3倍,提升對GPU的資料傳輸速率
– 業界領先的PCIe 5.0通道,支援AI加速器及其他裝置
– 透過加密緩衝區(Encrypted Bounce Buffer),確保CPU至GPU資料路徑的機密運算
– 硬體隔離技術,在使用中保護AI資料與模型安全