ChatGPT有多燒錢?初始晶片需8億、一次訓練成本上看1200萬美元

AI聊天機器人ChatGPT爆紅,引爆科技巨頭搶進全球深度學習競賽,生成方式AI 其背後以大模型為基礎的人工智慧,而訓練大模型有多燒錢,券商資料顯示,大型語言模型(LLM)的訓練成本一次就要上看 200 萬美元至 1200 萬美元之間。ChatGPT對應晶片需求約要3 萬多片輝達圖形處理器,預估初期投入成本約為 8 億美元,每天電費更高達5 萬美元左右,燒錢又耗電。

ChatGPT有多燒錢?初始晶片成本8億、一次訓練成本上看1200萬美元。路透社

國盛證券報告《ChatGPT 需要多少算力》資料顯示,迴歸語言模型(GPT-3) 訓練一次的成本約為 140 萬美元,對於一些更大的大型語言模型(LLM),訓練成本介於 200 萬美元至 1200 萬美元之間。

如以 ChatGPT 在 今年1 月的獨立訪客平均數 1300 萬計算,其對應晶片需求為 3 萬多片輝達A100 GPU圖形處理器,初始投入成本約為 8 億美元,每日電費在 5 萬美元左右。

如果將目前的 ChatGPT 部署到Google進行的每次搜索中,需要 512820.51 台 A100 HGX 伺服器和總共 4102568 個 A100 GPU,這些伺服器和網路的總成本僅資本支出就超過 1000 億美元。

業者表示,深度機器學習正在逼近現有晶片的算力極限。是否擁有大模型將成為科技巨頭的重要分水嶺,未來科技巨頭之間將展開大模型軍備競賽,科技公司遠期投資價值或將被重新定義。

更多太報報導

更多相關新聞
港大禁用ChatGPT等AI工具 開香港高教圈首例
生成式AI興起 人類工作將被取代?LINE台灣團隊:不會用才可能
ChatGPT用戶數破億 馬斯克籲要立法監管AI
聊天AI漏洞被挖出!他設「1條件」讓AI道歉又下跪
Bing與ChatGPT合體後瘋了? 網友:會發脾氣撒謊「更像個人」