全球記憶體和儲存解決方案的領導廠商美光科技,今宣布其 8 層堆疊 24GB HBM3E解決方案已正式量產。

美光 HBM3E 解決方案將應用於 輝達 H200 Tensor Core GPU,預計於 2024 年第二季出貨。此里程碑使美光穩居業界領先地位,憑藉HBM3E 卓越的效能和能源效率,助益 AI 解決方案。

隨著 AI 需求不斷提升,能夠應付與日俱增工作負載的記憶體解決方案變得更加關鍵。美光 HBM3E 解決方案具備以下優勢應對此一挑戰:

· 卓越效能:美光 HBM3E 每腳位傳輸速率超過 9.2 Gb/s,記憶體頻寬達 1.2 TB/s 以上,為 AI 加速器、超級電腦與資料中心提供如閃電般快速的資料存取速度。
· 優異效率:與競品相比,美光 HBM3E功耗降低了約 30%,引領業界。為了支援日益增長的 AI 需求和應用,HBM3E 能以最低的功耗提供最大的傳輸量,進而改善資料中心重要的營運成本指標。
· 高可擴展性:美光 HBM3E 目前提供 24 GB 容量,使資料中心可無縫擴展其 AI 應用,無論是用於訓練大型神經網路還是加速推理任務,美光解決方案都能為其提供所需的記憶體頻寬。

美光執行副總裁暨事業長 Sumit Sadana 表示:「美光在 HBM3E 此一里程碑上取得了三連勝:領先的上市時間、業界最佳的效能、傑出的能源效率。AI 工作負載亟需記憶體頻寬與容量,美光 HBM3E 和 HBM4 產品藍圖領先業界,針對 AI 應用提供完整的 DRAM 和 NAND 解決方案,支援未來 AI 顯著的成長。」

透過其 1β 技術、先進直通矽晶穿孔 (TSV) 和其他創新,美光得以發展領先業界的 HBM3E 設計,並實現具差異性的封裝解決方案。作為記憶體領域中 2.5D/3D 堆疊和先進封裝技術的領導者,美光相當自豪成為台積電 3DFabric 聯盟的合作夥伴,共同形塑半導體和系統創新的未來。

美光也規劃將在2024 年 3 月推出 12 層堆疊 36GB HBM3E 的樣品,相較於競品,效能可達 1.2TB/s 以上並具備優異的能源效率,能進一步延續其業界領導地位。此外,美光也將成為輝達 GTC AI 大會的贊助商,該大會將於 3 月 18 日開始,屆時美光將更詳細地分享其領先業界的 AI 記憶體產品組合與藍圖。

Tags: