NVIDIA 為 AI 應用推出 HGX-2 雲端伺服器平台

NVIDIA 的年度技術大會 GTC 今天於 Computex 前夕在台北舉辦。雖然說 GTC 本來是「GPU Technology

NVIDIA 的年度技術大會 GTC 今天於 Computex 前夕在台北舉辦。雖然說 GTC 本來是「GPU Technology Conference」的意思,但由於近來 AI 的興起及其對運算力的巨大需求,GTC 的主題幾乎全部份集中在 AI 與機器學習上,橫跨物聯網、機器人、智慧製造、智慧醫療、深度學習等各個領域。

在會議前的 Keynote 上,CEO 黃仁勳展示了資料,顯示訓練 AI 模型所需的運算力,在過去五年內成長了 30 萬倍。黃仁勳認為,這樣的密集運算力不是傳統 CPU 所能提供的,只有高度平行化的 GPU,甚至是專門為 AI 打造的核心才能應付未來的需求。舉例來說,NVIDIA 去年 GTC 上發表的 Volta 架構 就是第一個專門強化 4x4 矩陣運算能力的 GPU,在 AI 相關的應用上有 100x 的表現。

然而,就算是 Volta 也未能滿足 AI 領域應用對於運算力的強大需求,因此 NVIDIA 今天發表了名為「HGX-2」的高效能運算伺服器平台,旨在更小的空間、更少的能耗下,提供大規模的 AI 運算的需求。透過 NVSwitch 網狀互連架構, HGX-2 最多可以串連 16 顆 Tesla V100 GPU,達到 2 Peta-FLOPS 的驚人速度,並且將由合作的伺服器伙伴,打造以 HGX-2 為基礎的各式產品。

事實上,NVIDIA 稍早發表的「史上最大 GPU」DGX-2 就是以 HGX-2 為基礎架構所打造,但 DGX-2 定價高達 US$399,000,而且無法有太多配合個別應用去做的客製化,現在 NVIDIA 將平台開放給合作伙伴之後,應該能為 AI 應用帶來更多的彈性吧?