NVIDIA 的資料中心 AI 晶片將由兩年換一代加速至一年換一代
其他包括「新的 CPU、新的 GPU、新的網絡控制晶片…」等,也都將加速。
NVIDIA 在稍早的財報中公佈,其僅靠著 AI 晶片,便在單個季度創造了 140 億美元的恐怖利潤。而且 NVIDIA 還將繼續加速 —— 據 CEO 黃仁勳的說法,NVIDIA 未來將有每兩年更新一代晶片,加快到每年設計一款新晶片,以加速 AI 相關技術的推進。
到目前為止,NVIDIA 大約維持著每兩年推出一次全新架構的產品,於 2020 年發表了 Ampere、2022 年發表了 Hopper(即業界寵兒的 H100),並在 2024 帶來 Blackwell 架構(即三月 GTC 上剛發表的 B200)。如果加速的話,次世代代號「Rubin」的架構,應該當在 2025 年推出,這與早前分析師郭明錤的報告不謀而合。
黃仁勳並表示,NVIDIA 不光是 AI 晶片,他們也將以同樣的速度加快其他所有晶片片的更新換代,包括「新的 CPU、新的 GPU、新的網絡控制晶片… 堆得像山一樣高的新晶片即將到來」。”
在財報電話會議中,有一位分析師詢問他如何在 Hopper 系列 GPU 仍然暢銷的情況下,提升新一代 Blackwell 系列的銷量時,黃仁勳解釋說,NVIDIA 新一代的 AI GPU 與前代都向下兼容,並且可以運行相同的軟體,因此客戶可以在「輕松地由 H100 過渡到 H200 再到 B100」。
另一邊,NVIDIA 的首席財務官表示,汽車行業其實才是該公司資料中心領域產品最主要的市場,並指出光是特斯拉就訂購了 35,000 顆 H100 GPU 來訓練其全自動駕駛(Full Self-Driving,FSD)系統,當然,網路公司一直以來都是 NVIDIA 這些晶片的支柱,像 Meta 就計畫在年底前部署總計高達 350,000 顆的 H100 GPU。
相關文章: