AI與資料中心耗電驚人 正在「吸乾」全球電力?
沒有了電就沒有AI。但是,訓練像OpenAI的GPT-3這種大型語言模型一回的用電量,等於能讓一個人看185年的Netflix。
文/陳亦偉 (中央社編譯組長)
人工智慧(AI)崛起,然而科技大廠憂心高耗電將成為制約AI發展的瓶頸,可謂沒有電就沒有AI。
AI到底多費電? 數據分析能嚇死人
美國新聞網站Vox一篇分析指出,國際能源總署(IEA)1月發布今後兩年全球能源使用預測,首度納入資料中心、加密貨幣和AI相關領域的電力消耗評估。IEA估計,截至2022年,這三類領域的用電量加總占全球能源需求近2%;然而到2026年,需求量會翻倍,相當於日本全國一年的用電量。
報告認為,能源需求成長最快領域之一是訓練生成式AI,它需要大量能源進行訓練和產生查詢答案。舉例來說,訓練像OpenAI的GPT-3這種大型語言模型一回,就需用上近130萬度的電,約合130個美國家庭的一年用電量。更直觀一點,串流媒體Netflix播放一小時約需0.8度電,訓練GPT-3一回的用電等於能讓一個人看185年的Netflix。
另據IEA的資料,每請求ChatGPT解答一次的用電量,是用Google搜尋一次的9.7倍,如果ChatGPT納進平均每天進行約90億次搜尋的工具,每年將增加10億度電,相當於歐盟居民150萬人一年用電。
美國的科技新聞網The Verge指出,荷蘭阿姆斯特丹自由大學(VU)博士生德伏里斯(Alex de Vries)專研加密貨幣與AI耗電。根據他的計算,到2027年AI領域一年用電約為850億到1,340億度電,「這等於屆時光AI耗電就約占全球用電的0.5%」。
AI耗電只是冰山一角 資料中心更是吃電怪獸
AI耗電看上去是天文數字,卻遠不及加密貨幣和資料中心。包括微軟(Microsoft)遇到的難題顯示,制約AI發展不僅是AI本身能耗,還有配套基礎設施的能耗及電網的承載力。
資料中心標準組織Uptime Institute發表的報告顯示,2020年全球大型資料中心的平均能效比約為1.59,意即資料中心的IT裝置每消耗一度電,配套裝置就消耗0.59度電;額外能耗中絕大部分用於冷卻系統。有調查研究顯示,冷卻系統的能耗可占資料中心總能耗40%。
隨加密貨幣和AI發展,各家科技大廠的資料中心規模不斷擴大。據IEA統計,美國在2022年坐擁2,700間資料中心,消耗全國用電4%;預估這一比例到2026年將達6%,屆時恐電力吃緊。
富國銀行(Wells Fargo & Co.)發布評估未來電力需求的報告指出,AI興起、半導體和電池製造擴張及車輛電氣化,預計到2030年美國整體電力需求將增20%。美國一些營運商認為在可預見的未來,大量新的核電容量還來不及上線,建設將可再生能源連接到電網的輸電線也需好幾年時間,電力供應短期內仍將仰賴天然氣。高盛集團(Goldman Sachs)4月發布的報告顯示,天然氣預計將滿足AI和資料中心電力需求成長的60%,剩下40%才是再生能源或其他來源。
氣候暖化雪上加霜 科技巨頭未雨綢繆
但隨氣候極端化,許多地區的電網更脆弱。IEA報告指出,受乾旱、降雨不足和提早融雪影響,2023年全球水力發電占比跌到30年來新低,已不到發電結構的40%;被視為能源轉型過渡的天然氣,在冬季極端天氣下並不穩定,2021年一波超強寒流潮襲擊美國德州導致大面積斷電,致災一大主因就是天然氣管道結凍造成發電廠停擺。然而包括美國在內,許多國家短期支應AI發展又不得不靠燃氣等化石燃料發電,形成惡性循環。
各國正敦促資料中心節能減排。歐盟要求大型資料中心設立餘熱回收裝置;美國政府注資研發能源效率更高的半導體;中國政府也要求資料中心從2025年起能效比不得高於1.3,並逐年上調再生能源使用比例,到2032年須達100%。
臉書母公司Meta執行長祖克柏(Mark Zuckerberg)曾在受訪時指出,AI在繪圖處理器(GPU)的供給瓶頸已緩解,但電力不足將限制AI的成長性,他相信能源生產很快會值得投資。
特斯拉(Tesla)執行長馬斯克(Elon Musk)4月時預測,全新AI模型的能力很可能2025年底時就超越人類智慧,但前提是電力供給及硬體能滿足這個日益強大科技的需求。
OpenAI執行長阿特曼(Sam Altman)相信,核融合是AI耗能嚴重問題的解方,他已對核融合投入數億美元。
微軟5月簽署價值100億美元的綠色能源協議,是迄今最大一筆購買再生能源的企業協議,將啟動全世界再生能源建設熱潮。
雖然投資者瘋狂湧入AI領域相關投資,但高盛的分析師認為,公用事業、再生能源發電和工業領域的下游投資機會被低估,AI發展需要這些領域的投資和產品,才能永續成長。
【更多精彩內容請見《全球中央》電子雜誌】【https://www.ysgoshopping.com/】