華碩出席NVIDIA GTC 2024人工智慧開發者大會,推出尖端GPU伺服器ESC NM1-E1,由NVIDIA MGX模組化設計架構驅動,將為AI超級運算奠定全新標竿!
因應生成式人工智慧日益增長的需求,華碩採用來自NVIDIA最新技術,包括:B200 Tensor Core GPU、GB200 Grace Blackwell Superchip和H200 NVL,以提供最佳化的AI伺服器解決方案,滿足更多跨產業AI應用。
為協助企業建立生成式AI環境,華碩也打造從入門級到高端的GPU伺服器,以及液冷機架,並憑藉MLPerf強大實力和針對大型語言模型(LLM)訓練、推理優化的軟、硬體,無縫整合全方位的AI解決方案,實現卓越超算力!
採用2U機架的ESC NM1-E1伺服器,內建NVIDIA GH200 Grace Hopper超級晶片,其具備Arm Neoverse V9 CPU核心與可擴展向量延伸指令(SVE2),並由NVIDIA NVLink-C2C技術提供動力,擁有超高能效,再加上結合ConnectX-7的NVIDIA BlueField-3 DPU網路平台,連線速度高達每秒400Gb,非常適合企業開發、部署AI使用,同時還能透過NVIDIA AI Enterprise為AI數據中心、HPC、數據分析和NVIDIA Omniverse應用帶來無與倫比的靈活性和可擴展性。
AI應用的激增,提升了伺服器冷卻需求,而華碩的D2C液冷技術,不僅可快速安裝,亦能有效降低數據中心的電力使用效率(PUE),且ESC N8-E11和RS720QN-E11-RS24U兩款伺服器另支援集管和冷板,以實現多樣化的冷卻解決方案;此外,華碩伺服器均配備符合標準機架設計的後門散熱器,無需更換所有機架即可啟用液冷,建置更隨心所欲。
華碩持續與領先業界的供應商密切合作,提供企業級冷卻解決方案,盼藉此最大限度地減少碳排放和能源消耗,創建更環保節能的數據中心。
本次會中,華碩的ESC4000A-E12也展示了一個整合軟體微型化技術的無代碼AI平台,讓企業能加速在LLM預先訓練、微調和推理方面的AI開發,以減少風險、提前上市時間,同時還支援不同LLM認證,從7B、33B甚至到180B以上,並配備客製化軟體,成就絕佳的伺服器數據調度。
透過優化GPU資源的分配進行微調訓練,華碩軟體微型化技術可確保AI應用和工作負載順暢運行、不浪費資源,大幅提高效率與投資報酬率(ROI),搭配集成開發的軟、硬體,企業將可依各式需求選擇最合適的AI功能。
隨著企業智慧物聯網應用日新月異,華碩亦致力與企業合作夥伴、軟體專家及專業領域的整合商攜手,旨為現代數據中心、AI和HPC應用的全面安裝和測試,開創最完備健全、隨插即用的伺服器解決方案,穩踞業界領導地位。