【電腦展AI狂潮1】黃仁勳靠3大護城河構築輝達AI帝國 老神在在跑給超微、英特爾追

輝達執行長黃仁勳(左)與美超微執行長梁見後(右)均認為,AI伺服器即將進入液(水)冷散熱的時代。
輝達執行長黃仁勳(左)與美超微執行長梁見後(右)均認為,AI伺服器即將進入液(水)冷散熱的時代。

輝達(NVIDIA)創辦人暨執行長黃仁勳6月2日在台大體育館發表主題演講時表示:「透過加速運算處理器(GPU),AI將改變發展60年的電腦產業。為了解決未來資料不斷增加引發的運算通膨,輝達將採取一年一節奏(每年推新品)策略,持續推出算力更高的GPU。」短短幾句話,似乎在向同業超微(AMD)、英特爾(Intel)宣告,縱使AI產業未來將大幅成長,而且競爭者不斷在後面追趕,但輝達仍會想盡辦法維持獨霸AI伺服器晶片市場的狀態。

專家表示,去年輝達先以H100伺服器晶片領先搶市,今年初在美國開發者大會(GTC)發表用台積電4奈米生產的GB200超級晶片,算力三級跳,讓不少雲端業者放棄自行研發AI伺服器晶片的念頭。話雖如此,在市場需求強烈的狀況下,超微、英特爾並未就此放棄,仍在後面苦苦追趕。

因為如此,黃仁勳此次台北國際電腦展(COMPUTEX)又預告,輝達明年不但會有新版本的AI伺服器晶片,2026年還會推新一代AI晶片架構「Rubin」,會搭配高頻寬記憶體HBM4,並採用台積電3奈米先進製程製造,「這會讓已缺到不行的先進製程與封裝,以及高頻寬記憶體需求,後勢更加看好。」專家直接點出其中關鍵。

不僅如此,因為高算力引發的散熱問題,黃仁勳特別點名輝達新的DGX GB200 NVL整櫃伺服器將採用水冷散熱技術;該產品也在美超微(Supermicro)創辦人梁見後的主題演講中曝光,受邀站台的黃仁勳用台語稱讚機器:「不但很水,還又酷、又涼。」

一位法人直言,一整櫃AI伺服器動輒3、400萬美元起跳,若為散熱問題讓晶片燒壞,損失慘重;故除AI晶片外,散熱也是未來AI伺服器發展的關鍵之一。「目前能做出機櫃CDU(冷卻液分配裝置),只有資金與技術能力兼備的廠商,如廣達、台達電等,才能獲得雲端服務業者的信賴,率先受益。」

輝達開發的GPU互連技術NVLink,已成為晶片同業爭相仿效的產業新標準。
輝達開發的GPU互連技術NVLink,已成為晶片同業爭相仿效的產業新標準。

就算輝達在AI伺服器有高達近9成的獨霸市占優勢,但面對超微、英特爾兩大敵手的強力挑戰,黃仁勳除推出效能更好的AI晶片外,另一重大挑戰,就在於伺服器內,GPU間的連接介面、以及乙太網路通訊互通的門檻。為此輝達首創了高速GPU互連技術NVLink,與輝達自行開發的軟體平台CUDA一樣,都是輝達AI帝國的重要護城河。

為挑戰輝達,蘇姿丰和季辛格不約而同在主題演講上,宣傳自家主導的UALink和Ultra Ethernet開放標準協定,強調標準開放才能促進生態系創新。此外,蘇姿丰更拿自家AI晶片與輝達現有產品比較,叫戰意味濃厚。對於兩強叫陣,黃仁勳卻在輝達記者會老神在在地說:「我們的NVLink已經開發到第五代,而UALink只剛起步,等UALink第一代推出,NVLink可能到第七、八代了。」絲毫無懼對手進逼。

AI伺服器需求暴增,連帶也讓BMC(遠端伺服器控制晶片)帶來成長契機。全球最大BMC廠商信驊科技董事長林鴻明對本刊表示,傳統一台伺服器只要一顆BMC,但輝達上一代AI伺服器就用了12顆BMC,隨輝達推出新晶片,對BMC需求也等比提升,現在都要搭配45顆甚至81顆BMC。「因為BMC可模擬伺服器內非常多訊號,並掌控許多控制點,當伺服器運作有什麼風吹草動,第一時間便知道並偵測,可進一步做事後分析,改善伺服器的可信度。也因此,要讓一個伺服器MTBF(平均故障間隔時間)大幅改善,就需要加裝非常多BMC監控整個電腦狀態。」林鴻明進一步解釋。

更多鏡週刊報導
【產業趨勢】AI大時代全面來臨 直擊COMPUTEX三大趨勢亮點
【電腦展AI狂潮2】晶片大廠CEO拉攏台灣IT供應鏈 AI PC成台廠營運爆發新動能
【電腦展AI狂潮3】AI教父:機器人是下個殺手級應用 工業電腦等受惠廠商名單曝光