Supermicro 持續擴展 GPU系統組合,新伺服器加快 AI、HPC 和雲端工作速度

圖/Supermicro 持續擴展 GPU系統組合,新伺服器加快 AI、HPC 和雲端工作速度。
圖/Supermicro 持續擴展 GPU系統組合,新伺服器加快 AI、HPC 和雲端工作速度。

Super Micro Compute宣佈推出搭載 NVIDIA Ampere architecture GPU 以及內建AI加速器的第3代 Intel Xeon 可擴充處理器的全新系統 (Supermicro X12 系列)。這些伺服器是專為需要低延遲和高應用效能的 AI 應用所設計。2U NVIDIA HGX A100 4-GPU 系統適於大規模部署的現代 AI 訓練叢集。而Supermicro 2U 2-Node 系統則可透過共享電源供應和冷卻風扇來減少能耗和成本。

2U NVIDIA HGX A100 伺服器採用第3代 Intel Xeon 可擴充處理器平台,可搭載 4顆A100 GPU並以NVIDIA NVLink 技術完全互連,根據官方資料,可提供 2.5 petaflops 的 AI 性能。其 320GB 的GPU 記憶體,可加速企業資料科學以及 AI 方面的突破。對於像是 BERT 大型推論等複雜型對話式 AI 模型,此系統比上一代 GPU的演算快了 4 倍,而在 BERT 大型 AI 訓練方面則有 3 倍的性能提升。此外,這些系統採用進階的散熱和冷卻設計,也可採用液冷系統。

Supermicro 2U 2-Node是一種節能、省資源的架構,設計能讓每個節點支援最多三張雙倍寬度 GPU。每個節點還配備一個具有40 個核心、內建AI及HPC加速器的第3代 Intel Xeon 可擴充處理器。 AI、渲染和 VDI 應用都能從這種平衡設計中受益。該系統配備 Supermicro 的進階 I/O 模組 (AIOM) 擴充插槽,具有快速靈活的網路連線功能,可在執行工作及處理深度學習模式時負荷龐大的資料流量。

◤編輯最愛◢

👉 多款輕薄筆電/電競筆電/MacBook 瘋狂折扣不搶後悔

影像資訊:Super Micro Computer