NVIDIA成就兆元帝國後,GPU太貴恐成黃仁勳致命傷?6個關鍵決定輝達命運

ChatGPT的問世,助攻了輝達(NVIDIA)的發展,有人說是泡沫,也有人認為是未來。如今,輝達從公布第一季財報後,已正式成為市值兆元俱樂部的成員,為台積電的兩倍,穩穩坐上全球半導體龍頭的寶座。

AI熱潮崛起,NVIDIA搭GPU順風車,成就兆元帝國!

讓輝達一飛沖天的,是ChatGPT背後技術生成式AI帶來的算力需求。生成式AI的特色在於能自行消化各種資料後,進一步推論出回答。其中關鍵在於,前期就必須餵養各種訊息,以建立龐大的語言模型(LLM),才能產出精準結果。

GPU是什麼?跟CPU有什麼不同?

這意味著生成式AI需要的算力將不同以往,必須仰賴GPU(繪圖處理器)。GPU和CPU(中央處理器)兩者處理計算的方式不同。GPU內的資料處理是同時平行運算;CPU則是按順序進行,兩者沒有優劣之分,但GPU更適合處理AI的各種運算,這也是為何輝達如今能大殺四方的原因。

不過,AI的發展還處於萌芽階段,企業也群起探索該如何更好的運用新科技優化營運,加上諸如超微(AMD)、英特爾(Intel)等對於AI也都有進一步的布局。乘著浪潮登頂的輝達,在未來的發展上,有哪些值得關注的地方?

三大優勢打造AI王朝,輝達將來還會做些什麼?

優勢一:與伺服器廠關係緊密,為AI模型運算順暢關鍵

產業分析師指出,AI模型運算能否能運行順暢,軟硬體的整合相當關鍵。而輝達目前在與伺服器廠的關係上,擁有十足優勢。

廣達技術長暨副總經理張嘉淵就兩面向分析,以企業應用來說,未來不同類型的企業會有屬於自己的AI模型;若以雲端大廠需求來看,諸如Azure、AWS和Google這樣的雲端服務供應商,面對不同產業,對AI伺服器客製化需求也會攀升。

張嘉淵指出:「要做到客製化,就要有晶片、系統和軟體公司等一整個生態系的互相配合。」這意味著,身處第一線的伺服器廠,未來整合的角色將會越來越重要。

也就不難理解,為何黃仁勳的一趟旋風訪台,會頻繁地出現在各家伺服器廠的活動上。「這不是傳統的代工,是需要花力氣co-design(共同設計)的過程,會慢慢變成生態系。」張嘉淵說。

不僅如此,輝達當前產品已能滿足多樣的客製需求,無論是資料中心要用到的大規模運算,或是單一公司內部需要的AI伺服器,輝達都能提供從單一GPU到關鍵模組等各式產品,這也是輝達之所以能在AI伺服器市場攻下9成市佔的因素之一。

雖然輝達產品價格雖然高昂,但張嘉淵表示,客戶目前最在乎的是「整體效能」,只要伺服器能運算快速省下諸多電費,成效表現也佳,即使花多一點錢購買輝達產品,客戶也心甘情願。回應了黃仁勳的口號:買越多、省越多。

優勢二:CUDA固守企業防線,競爭者難切入

從軟體端來看,輝達當年努力開發的CUDA,是支撐AI版圖的關鍵。以硬體投資為主的聚達創業投資管理顧問合夥人余東洛指出:「CUDA裡面有很多library(函式庫),已經針對GPU架構深度優化,例如需要某種矩陣乘法,可以直接呼叫已經優化好的函式或API,輕易在輝達GPU上達成最佳效能。」

換句話說,不少採用輝達產品的企業客戶,已擁有一批理解CUDA架構的工程師。AI軟體新創iKala創辦人程世嘉就表示,若要重新養一批人適應新架構,除非誘因夠強,否則機率不高。意味著即便競爭對手想切入,就必須先打破CUDA這道堅固城牆。

延伸閱讀:【圖解】13年前的決策造就Nvidia!黃仁勳做對什麼?

不過當前如英特爾和超微等競爭對手,正在想辦法打破輝達的壟斷局面,開發能無痛從CUDA轉移到其他平台上的工具。研調分析師認為,這將促使輝達加速升級CUDA上的現有功能,以及軟硬整合的力道,降低客戶流失的可能性。

優勢三:布局雲端算力,打造一條龍AI服務

近期輝達將DGX超級電腦搬至雲端上所推出的DGX Cloud,為提供雲端AI運算的服務,用要讓無法負擔GPU價格的企業,也能在雲端上享受到大算力,是一種AI版本的軟體及服務(SaaS)。

這樣的布局也讓輝達從單純的硬體商,轉變為雲端算力的提供者。分析師認為,這可讓輝達在未來,能夠搶攻高端市場,例如氣象模擬、地球模擬或國家級的精密運算;更可能在算力不足的AI發展期,搶占紅利。

NVIDIA DGX H100 圖/輝達提供
NVIDIA DGX H100 圖/輝達提供

此外,這樣的做法也讓輝達率先與新創搭上線。iKala共同創辦人暨執行長程世嘉指出,對新創來說算力是稀有資源,「雲端巨頭的公有雲,對新創說成本可能太高。」然而,透過輝達的這套服務,服務可以輕鬆部署到更多地方。

HOMEE AI創辦人杜宇威也表示,輝達所提供的雲端運算服務,可幫助HOMEE AI將基礎建設更快速部署全球,滿足大型的傢俱品牌商客戶的需求。HOMEE AI是一間運用AI技術,提供即時3D居家擺設建模的軟體供應商,致力於家具業的數位轉型。

「重點在與要讓很多人同時在線,並運行得很順暢。我們早就有在做加速,但和輝達合作後,HOMEE AI就能服務全球更多家具品牌。」杜宇威說。

沒有永遠的王者!競爭者將如何追上輝達?

風險一:AI模型走向開源、微縮,小型IC設計商也能打客製化市場

雖然輝達當前像吃了馬力歐無敵星星,在AI算力市場上大獲全勝。不過余東洛分析,在ChatGPT問世以後,開源幾乎已經是模型發展的共識。由於過去LLM訓練所需要的資源很大,規格也不明,是大企業才玩得起的遊戲。若能透過開源,集合社群的力量才能讓中、小型企業也參與進來,這也是為何有許多開源模型目前能免費取得的原因。

這意味著,企業能夠有更多機會,運用開源模型來發展自身企業專屬AI模型,記憶體、頻寬等需求也都變得能夠預估。「以前(沒有開源模型)大家不清楚,現在就知道了,就有機會依據某些開源模型版本,做一顆特定功能的ASIC(客製化晶片)。」余東洛說。

不同於通用GPU,ASIC要達成的任務單一且明確,運算速度更快,加上不同領域要加速,有各自know-how,是小型IC設計商能選定的市場。耐能智慧創辦人劉峻誠比喻:「ASIC就像小客車,在城市鑽來鑽去比較省油。但現貨車(GPU)才剛出來,大家會慢慢意識到有些地方開小客車就可以。」

chatgpt app 圖/App Store
chatgpt app 圖/App Store

此外,已有組織在研究如何縮小LLM,滿足「小又精準」的需求,「如果能做到,之後在推論(inferencing) 時,就不一定要放在輝達的平台上去跑。」

縮小有兩種,一種是從AI訓練(training)開始就想辦法把模型縮小;另一種則是把訓練好的大模型,在精準度不變的狀況下,用各種方式降低參數量,在這個狀況下,邊緣運算機會大增,余東洛補充:「已經有公司用類似FPGA(現場可程式化邏輯閘陣列)做出通用型架構,以滿足邊緣運算需求。」

從伺服器廠的觀點來看,一位高層指出,AI伺服器中光GPU成本就占了近9成。騰旭投資投資長的程正樺就表示:「成本太高,毛利其實不好。」無論是模型開源還是縮小,都可能會促使伺服器廠找尋輝達以外的供應來源,進行成本控管。

延伸閱讀:黃仁勳脫下皮衣幫他穿上!幫NVIDIA打造首台AI超級電腦,雲達什麼來頭?

風險二:輝達近乎吃光AI利潤,恐刺激客戶尋找替代方案

一位IC設計高層指出,雖然DGX Cloud讓輝達觸及更廣闊的市場,但也成為致命傷,牽動雲端巨頭的敏感神經。日前科技外媒《Techharder》便指出,輝達很可能會造成和雲端供應商之間的對立,加速雲端巨頭尋求替代方案。

當中問題在於,企業租用DGX Cloud服務,比起直接和AWS或Azure等雲端廠租借的費用還低,客戶重疊。加上雲端大廠背後的算力又是由輝達GPU所驅動,AI利潤全都進了輝達的口袋,形成壟斷。

AWS 圖/Canva
AWS 圖/Canva

《Techharder》報導,這無異於提供對手超微(AMD)、耐能、英國AI晶片獨角獸Graphcore和知名AI晶片新創Cerebras分一杯羹的大好機會。雲端業者甚至表示:「有一些AI模型用CPU跑就可以了。」

風險三:消費性市場布局尚淺,要搶走紅利不難

另外,業界也已經在討論AI模型容納於裝置的可能性。程世嘉表示,現在業界已經在想辦法讓模型容納於消費裝置,不過僅能聽讀,無法生成,「這代表會有新的應用出現。」

另位軟體業者分析:「消費性市場是目前輝達最大的缺口,以遊戲為例,廠商本來就在公有雲上面跑,對Google等廠商來說,拉攏他們採用TPU(張量處理器)架構本來就是近水樓台先得月。」TPU是谷歌專為深度學習加速所自行研發的晶片,「也許TPU算力不好,但只要跑起來順,不用重新養一批人就好。」

該業者預期,例如Google擁有Pixel手機這樣能接近終端消費者的裝置,想要擴張TPU架構勢力還是有可能,「現在輝達就是想要從硬體吃過來軟體這塊,但他沒有應用很難實現。」不過要真的實現在終端的應用,恐怕還需要好幾年的時間。

延伸閱讀:黃仁勳猶如AI代言人,關鍵在一身黑皮衣!揭開賈伯斯、祖克柏都懂的事

責任編輯:林美欣

更多報導
黃仁勳預測:「體現智慧」是AI下波浪潮!不只NVIDIA,特斯拉也押寶
【觀點】中國出手列清單、美延長出口許可,一文掃瞄美中半導體最新戰況