科技CEO談DeepSeek 嘆「台灣AI超級電腦老矣」 管中閔回應了
DeepSeek大型AI語言模型橫空出世,以10倍的高效能顛覆了高階AI晶片產業。台灣雲象科技CEO葉肇元直呼為此憂心忡忡睡不著覺,他關注台灣在AI未來中如何定位自己?台灣有TAIDE、TAME、DaVinci,但能給學界業界做AI研發的超級電腦已是垂垂老矣,政府應有長期一貫性深耕計畫。
葉肇元提到,先從最根本的問題開始,在我們評論別人的大型語言模型之前,先看看台灣有哪些大型語言模型研究計畫?自己找了半天大概只找到三個:1.TAIDE(推動台灣可信任生成式AI發展計畫)這是由國科會提供約三億元經費所補助發展的計劃,在Github上面看不到程式碼,在Huggingface上面可以下載得到模型,但上一次更新停在2024年五月。這個計畫中花了一億元左右買了72個H100的GPU(計算力約3 PFLOPS)。
2.TAME(TAiwan Mixture of Experts)由長春集團、和碩聯合科技、長庚醫院、欣興電子、科技報橘聯聯合發起的一個大型語言模型開發計畫,由台大資工系的陳醞儂教授以及她指導的博士班學生林彥廷主導開發。最新的模型發表是2024年6月,知識終止於2021年9月(自己問他知識有多久沒有更新了?這是他給的回答)。
3.聯發科的DaVinci生成式AI平台,計畫經費不詳,但這反而是持續有在更新的。但這個平台到底可以做什麼,無法得知,因為網站有受到帳號密碼控管,而且無法申請新的帳號。
葉肇元指出,這些計畫看得出來都是在ChatGPT正火熱的當下拿到短暫的經費去做的,然後後續不知道該怎麼辦,因為無法明確地講出效益,無法爭取得到更多經費支持,於是模型就沒有更新了。也因此這些計畫的實質效益都非常有限。這不能怪這些研究團隊,這是台灣科技發展的結構性問題。自己認為現在應該是需要重新再次檢討的時刻了。AI發展如此地快速,我們必須要承認,到目前為止,我們的AI發展策略並不是很有效。
葉肇元強調,其實台灣現在能給學界業界拿來做AI研發的超級電腦已經是垂垂老矣,建置於2018年的台灣杉二號,計算力是9 PFLOPS。在台灣國土內目前算力最強的超級電腦,Taipei-1,是由NVIDIA所建置的,供他們內部研發用途,因為有受到經濟部補助的關係,有限度地開放給學界業界使用,但必須提出計畫申請,被核可之後才可以使用,使用也是有限時的,所以這並不能真的算得上是能幫助台灣AI研發的計算資源。
葉肇元直言,在大方向上,可以肯定的是,政府必須要有長期(至少十年)且具有一貫性的計畫,精準地選擇就台灣所可以支配的資源限制下,和國家發展相契合的軟體技術發展方向來深耕,並且和相關的企業密切的配合建構出足以成長茁壯的產業生態系,由商業發展的前景來持續支持尖端AI技術的長期發展。這是個不好解的題,但它是台灣非解不可的題。
台大前校長管中閔留言「說得極好!這不僅是台灣推動AI上的關鍵性問題,也是台灣長期發展的結構性問題之一。」