NVIDIA Hopper加速系統結合Intel第四代Xeon Scalable處理器,讓資料中心運算效能提升25倍

配合Intel的第四代Xeon Scalable可擴展伺服器處理器,以及代號「Sapphire Rapids HBM」、隸屬Max系列的Xeon處理器之後,NVIDIA也宣布將以旗下代號「Hopper」的加速系統,藉此讓資料中心運作效率相比傳統設計可提高25倍率,並且大幅降低能源成本。

NVIDIA Hopper加速系統結合Intel第四代Xeon Scalable處理器,讓資料中心運算效能提升25倍
NVIDIA Hopper加速系統結合Intel第四代Xeon Scalable處理器,讓資料中心運算效能提升25倍

依照NVIDIA說明,結合第四代Xeon Scalable可擴展伺服器處理器與代號「Hopper」的加速系統所構成運算系統,目前已經透過其合作夥伴推出超過60款設計,不僅大幅降低運算時的電力損耗,同時也能大幅推動人工智慧運算、機器學習、深度學習等應用成長,更能進一步協助更多業者推動永續發展。

而配合第四代Xeon Scalable可擴展伺服器處理器原生支援PCIe Gen 5規格,可將CPU到NVIDIA GPU及網路的資料傳輸速率提高一倍,並且能讓每台伺服器可以配置更高密度的GPU與高速網路。

另外,更高記憶體頻寬也提升人工智慧等資料密集型作業負載表現,每個連接節點高達每秒400GB (Gbps)的網路傳輸速度,更讓伺服器與儲存裝置之間能更快交換資料。

每個DGX H100系統搭載8個NVIDIA H100 GPU、10張NVIDIA ConnectX-7乙太網路介面卡,以及2組第四代Xeon Scalable可擴展伺服器處理器,藉此提供打造大型生成式人工智慧模型、大型語言模型、推薦系統等所需效能。

這個架構加上NVIDIA網路技術,將能大規模提升運算效率,在訓練人工智慧及處理高效能運算 (HPC)作業負載方面,相比前一代產品約可高出9倍運算效能,相較未加速的x86架構雙插槽伺服器約可提升20至40倍運算效能。

若以x86架構伺服器叢集訓練單一語言模型需要花費40天時間的情況,在搭載Intel第四代Xeon Scalable可擴展伺服器處理器及ConnectX-7網路技術的 NVIDIA DGX H100系統訓練相同語言模型,僅需一到兩天即可完成。

更多Mashdigi.com報導:

微軟打造「VALL-E」人工智慧語音模型,透過3秒長度資料即可模擬真實人聲

除了5G連網晶片,蘋果再傳計畫打造自有Wi-Fi、藍牙晶片

Qualcomm提出的Snapdragon Satellite衛星呼救方案,目標希望建構更完整雙向通訊服務