人工智慧風潮 帶動晶片新需求

工商時報【葉貞秀】 自人工智慧(AI)一詞於1955年美國達特茅斯(Dartmouth)會議被提出後,正式宣告人工智慧領域的誕生,由研究人員進行數學模型的開發,讓後續數十年間全球陸續引發數波人工智慧研究以及應用風潮。 然而近期人工智慧風潮的特點與前幾波不同,不在於模型研究已達到完美,而是利用神經網絡(Neural Network)程式架構搭配深度機器學習的方式,在電腦運算能力大幅提升下,能在短時間內找出最適合的運算模型,也讓複雜而完美的推論模型能在短時間被運算完成。硬體效能的提升讓Deep Mind的Alpha Go能打敗棋王,人工智慧模型AlexNet在機器視覺辨識大賽ImageNet大幅突破之前的比賽紀錄,讓一般民眾發覺人工智慧技術已逐步由科幻小說情節進展到現實生活中。 人工智慧之所以不斷被各行各業引進,在於深度學習被應用在解決過去工程師無法撰寫程式解決的難題,AlexNet就是利用深度學習發展出的圖像辨識模型,進而打破過去電腦視覺演算法識別的極限,當然高辨識率亦要付出相當的代價,模型訓練耗時、高運算效能的電腦系統昂貴且耗能,以及難以理論分析及維護的模型等,但人工智慧的迷人即在於這個黑盒子的強大,也讓各行各業均積極嘗試利用它來解決困擾已久的問題。 而負責執行AI運算的晶片主要為通用型的CPU(中央處理器)及GPU(圖形處理器),以及各廠商針對特殊應用的專用晶片如ASIC(特殊應用晶片),或是具可調整彈性的FPGA(可程式邏輯閘陣列)。 目前應用端,實際的AI應用分為「訓練」以及「推論」,「訓練」為透過輸入大量的資料,以調整模型中CNN或RNN等神經網路層的參數達最佳化,而「推論」則是使用模型以及最佳化的參數,應用於各現實的場景中,如臉部辨識或自然語言辨識等。由於在「訓練」時,對於參數以及數學模型未定,故開發人員多採用CPU或是GPU等通用型的晶片來進行「訓練」的運算。 而在「推論」端,由於模型的參數已確立,通用型的產品硬體架構運算效率不如專用晶片高,故在「推論」時,多採用FPGA或是ASIC等架構較精簡的晶片進行模型加速運算,一來是晶片運算的耗能較低,二來亦進一步降低晶片成本。 AI經歷了數十年的發展,直至近年來開始逐步導入商業應用,模型訓練所涉及的運算架構複雜,不僅與硬體的核心架構相關,也因為AI應用的開發者多為程式軟體人員,晶片廠商所提供的開發平台是否易於上手,直接影響到AI應用開發者採用硬體的意願,這有賴於長期的布局與推廣,非新進的廠商能在一朝一夕能打破競爭格局。 然而隨著人工智慧應用在各層面擴散,在需即時反應的應用情境,如人臉辨識、自動駕駛等,人工智慧「推論」的終端晶片需求已然成型,國際大廠亦將終端「推論」晶片視為下一波發展的重點,然而市場尚在成長初期,應用發展亦尚在起步,台灣晶片廠商入場仍大有商機。 目前國際晶片大廠在人工智慧產品發展上,多是朝提升產品效能著手,如提高單位耗能的運算能力,這也是造成晶片價格偏高而多搭載在高階應用中,讓當前的消費型終端應用中,實際採用人工智慧晶片進行加速的例子有限。當紅的智慧音箱亞馬遜Echo,語音辨識運作模式仍是將資料傳送到雲端伺服器進行推論,未在晶片端進行運算。雖然終端晶片導入人工智慧運算勢必帶來即時反應與回饋、使用者資訊安全保護的好處,然而亞馬遜未導入晶片運算中,除了資料仍有賴雲端資料提供外,終端晶片提升運算效能,勢必增加晶片成本,對於向來著重銷售低價硬體以換取雲端服務營收的亞馬遜來說,採用AI晶片提升成本吸引力有限。 因此,除了大幅提升運算能力外,開發符合客戶需求的AI加速功能才是提升終端晶片銷售的重點,透過AI解決客戶長久無法解決的問題,諸如提升智慧型手機拍照影像品質、延長行動裝置的使用時間等,以AI解決當前零組件規格無法滿足的客戶需求,再進一步考量現有晶片需要AI功能加值的細部規格,才能避免功能過於強大的AI晶片落入無用武之地的窘境。 除了功能加值外,台灣在ICT零組件以及系統製造上具舉足輕重的地位,晶片廠商能有機會與零組件及系統客戶密切合作。而台灣電子產業長於提供優質平價的產品,如何降低成本長期以來為廠商備感壓力的課題。台灣相關晶片廠商除了考慮提升AI運算效能外,亦可考慮透過AI運算,彌補模級或系統設計的不足,甚至進而可降低系統硬體成本或是提升穩定度及良率,與台灣產業型態結合的AI晶片,將進一步創造結合半導體與系統製造的人工智慧新商機。(本文作者為資策會MIC資深產業分析師葉貞秀)