AMD(NASDAQ: AMD)宣布Oracle Cloud Infrastructure (OCI)採用AMD Instinct MI300X加速器與ROCm™開放軟體,為最新的OCI Compute Supercluster執行個體(instance)BM.GPU.MI300X.8提供動能。

對於含有數千億參數的AI模型來說,搭載AMD MI300X的OCI Supercluster憑藉與其他OCI加速器相同的超高速網路架構(ultrafast network fabric)技術,可在單一叢集中支援高達16,384個GPU。這些OCI的裸機執行個體(bare metal instance)設計旨在執行各種要求嚴苛的AI工作負載,包括需要高吞吐量的大型語言模型(LLM)推論與訓練,且具備領先業界的記憶體容量與頻寬,現已被Fireworks AI等企業所採用。

AMD全球副總裁暨資料中心GPU事業群總經理Andrew Dieckmann表示,AMD Instinct MI300X 與ROCm開放軟體的發展動能持續成長,成為深受客戶信賴的解決方案,以執行最關鍵的OCI AI工作負載。隨著這些解決方案進一步擴展至持續成長的AI密集型市場中,此組合將為OCI客戶帶來高效能、高效率以及絕佳的系統設計彈性。

Oracle Cloud Infrastructure軟體開發資深副總裁Donald Lu表示,AMD Instinct MI300X加速器的推論能力增加了OCI廣泛的高效能裸機執行個體選擇,以消除AI基礎架構常用的虛擬化運算所帶來的開銷。我們很高興為客戶提供更多選擇,以具有競爭力的價格加速AI工作負載。

AMD Instinct MI300X通過OCI認證的嚴密測試,凸顯其滿足延遲最佳化(latency-optimal)使用案例的AI推論與訓練能力,在較大批量(batch size)下,可在單一節點上容納最大的LLM模型。Instinct MI300X具備的這些效能優勢引起了AI模型開發者的關注。

Fireworks AI提供一個高速的平台,以建構與部署生成式AI。擁有超過100個模型的Fireworks AI正在發揮OCI中AMD Instinct MI300X所帶來的效能優勢。

Fireworks AI執行長Lin Qiao表示,Fireworks AI協助企業在廣泛的產業和使用案例中建構與部署複合式AI系統。AMD Instinct MI300X與ROCm開放軟體提供的記憶體容量,讓我們能為客戶擴展服務以因應持續成長的模型。

Tags: