【換日線科技】ChatGPT 可以成為你的台語老師嗎?

作者:王善/阿善 Café 的世界分館

隨著 AI 技術發展,各種人工智慧能應用的領域,成為大家紛紛討論的議題──當然也包含校園課程。個人在國立臺灣大學修習的「臺灣語言與社會」課程中,授課的江文瑜教授,考量到語言復振需要不少科技協助,特別在學期中邀請廖元甫教授到課堂演講,分享 AI 在語言復振領域能有哪些助力。

目前領導國立陽明交通大學(下稱陽明交大)「人工智慧語音研發中心」的廖元甫教授,在這場演講中試圖回應幾個有趣的大哉問:ChatGPT 會不會講台語?此刻為何是發展本土語言復振的最佳時機?

本文正是個人在聽課後的演講筆記,經老師們同意後,以文字向讀者分享,期待能有更多讀者關心語言復振議題,以及 ChatGPT 等 AI 應用在語言領域的發展。

現今研究,AI 能做到什麼?

身為研究人員,廖元甫老師先分享了在學界對於 AI 進行的研究方向。對於學術機構來說,首要任務當然是研究人工智慧技術的模型,但「開發」亦是工作重點;在「人工智慧語音研發中心」裡,他們想像、想創造出的,是一個能跟人對話,甚至可能會講台、客語的機器人,正如同電影《鋼鐵人》中的智慧助理「賈維斯」。

此類產品,在學術上稱為「多模式基石模型」(Multi-Modal Foundation Models),亦即類似 ChatGPT 的進階版,是一個整合多種基礎模型,能夠聽、說、讀、寫的系統,不但了解人類語言,還可以產出語言。

為了達成此一目的,廖老師的研究團隊早就有了一套跨領域的「國台語資料庫建置技術」,已經能標準化地為臺灣的各種語言留下紀錄,擁有許多「語料庫」。同時,他們也積極研究國台語的 AI 語音科技,成熟的技術已經應用到許多政府單位活動中,包含總統府、立法院、衛福部等記者會的字幕產出,靠的就是這些基礎。

然而,有了這些基本的 AI 技術後,該如何讓 AI 成為我們的語言老師,讓我們學習未來可能失傳的本土語言呢?

ChatGPT 可以成為你的台語老師嗎?

在回答 ChatGPT 是不是能夠教我們台語前,老師先說明了它之所以爆紅,而且特別的原因。

相較於過往的產品,OpenAI 所開發的 ChatGPT 能夠和使用者聊天,有較強的人工反應,這是過去技術做不到的。因為在人類自然語言處理中,有很多很複雜的對話邏輯,過去的人工智慧技術,通常採用一條一條寫入規則、土法煉鋼的方式;但人類語言之複雜,規則根本多到寫不完,很容易像手機的 Siri 一樣「接不下去」,最後只能跳針回答「我聽不懂你在說什麼」。

ChatGPT 的特殊之處就在於,使用者可以對它隨便提問,它什麼都可以回答,雖然回答的內容可能有誤或不實,但回應的語言邏輯都是正確的。因此,這也讓廖老師的團隊開始思考,我們能夠問 ChatGPT 台語的問題嗎?

考量到 ChatGPT 蒐集到的台語原始資料不多,它對台語只是略懂,若想運用像 ChatGPT 這樣的現有 AI 語言模型練習台語,可能有兩種解決方法:第一是翻譯,第二是調適。

所謂翻譯法,其實就是暴力法,透過將現有的語言模型 ChatGPT,串接上目前廖老師團隊已經有的翻譯器、語音辨識、語音生成系統,幫它裝上耳朵跟嘴巴。目前陽明交大的研究團隊,已經成功用這種方式,製作出了一個 Beta 測試版的台客語 ChatGPT「鬥陣來開講」,能夠支援台語和客語的語音輸入、語音輸出;其中語音辨識的技術就和政府單位記者會的即時字幕相同,而語音合成技術則是同樣來自陽明交大的研發成果「台語語音合成」。

不過,畢竟目前研究計畫蒐集的語料有限,許多都是書面文,可能在回答上仍不夠自然、口語,仍是未來希望改善的部分;但有了這樣的台語對話 AI,我們已經能夠在和它對話的過程中,學習基礎的台語了。

至於前文所提的調適法,則是較為複雜但精準的方法,背後邏輯就如同我們學習第二外語一般,透過讓 ChatGPT 這樣的系統學習台語,用語言模型調適。

若透過調適法進行,就得注意語料的組成是否帶有偏見,舉例而言,若提供 AI 太多簡體中文的資料,就可能發生如過去新聞報導的,ChatGPT 在兩岸議題「語出驚人」的案例。

但就技術上而言,若要從零開始訓練一個像 ChatGPT 這樣的 AI 基礎模型,需要經過很長時間;以國外大型模型 BigScience 為例,就花上了 416 個 GPU、共 117 天才完成,背後成本非常高。因此,以現有模型來調適,也就是教它新語言,是較為實際的作法。

不過,就實務上而言,人類的語言習得機制其實相當複雜。若要以母語習得方式讓 AI 學語言,就要找到各種語言最底層的共同規則──普遍文法(Universal Grammar)讓 AI 學習,計算量較大;若要以學習第二語言的方式讓 AI 學習,建立在 AI 已經學會一種語言的強況下,就要考量到語言遷移、不同語言間的對照,理論上計算量較小,但以目前技術來說仍是難題。

總歸而言,AI 若要發展到人類的複雜語言,甚至還有手勢、眼神等等,沒有這麼快速、簡單,在短時間內仍無法達成。

此刻是本土語言復振的最好時機?

不過,演講尾聲,廖老師也試圖總結為何此刻就是復振本土語言的最好時機。

就技術面而言,目前的語音辨識、生成技術已經相當完善。廖老師曾參與 Meta 的英、台語音翻譯計畫,成功讓馬克祖克柏(Mark Zuckerberg)講出台語,就向世界展示了驚人技術。

人類從收到語言信號,轉化為語言的辨識,再轉化為腦中文字,是一個複雜的歷程;而人類產出語言聲音、音色,同樣是在腦部進行。在開發技術時,就是要讓電腦模擬這個過程,靠著聲學模型,仿造大腦產出語音。

隨著人工智慧技術發展,目前研究已經能在蒐集聲音後,運用類神經網路讓電腦計算、機器自行學習,創造出模型。遇到的最大障礙,就僅是外界噪音,或者是講話不清楚等辨識問題。

這樣的模型相當複雜,因為講話是用口型、聲帶變化出來的,電腦也要學習合成、辨認這些資訊的差異,理解語氣、聲線、行為,轉化為雙向解碼的過程。如今技術成熟,比起早期用統計方式,暴力找出規則給電腦,如今人工智慧已經能自己學習。

這些技術運用於台語,可以讓 AI 成為語言家教,也可以讓疫情記者會有即時字幕展示,廖元甫教授認為,未來若能讓電視節目即時呈現台文或其他本土語言字幕,大家就能邊看電視、影片,邊學語言,對本土語言復振肯定有很大幫助。

演講結尾,廖老師為議題畫下總結:此刻的臺灣,不但技術成熟,語音辨識合成、翻譯系統都堪用;政策方面,有 2018 年通過的《國家語言發展法》,更有行政院 111-115 年規劃用於本土語言的約 300 億總經費,有一部分可以用於語料庫建置、語音 AI 的開發,為目前本土語言復振創造了良機。

確實,就個人觀察,想以 AI 幫助本土語言復振,當下最重要的就是語料庫的建置,記錄下本土語言的使用痕跡、語法、用詞,才有機會讓 AI 學會語言。而這段工作,最需要的就是經費──若預算充足,相信臺灣的 AI 技術、研究量能不是問題,將有機會想像未來的某天,AI 幫助我們保存語言,教會下一代使用瀕危語言。

▌關於陽明交大「人工智慧語音研發中心」

該中心隸屬於產學創新研究學院,專注於「大規模多模式基石模型」進行語音、語言、影像、聲音等多媒體處理,或是本土語言應用。目前正招募專任教師,以及博士後、碩士級專案研究助理,歡迎有興趣的讀者參考陽明交大網站,或是與廖教授聯絡(yfliao@nycu.edu.tw)。

※本文由換日線網站授權刊載,原標題為《【台大演講筆記】ChatGPT 會說台語?──台灣團隊研究 AI,為本土語言復振努力》,未經同意禁止轉載

更多換日線文章

台灣 16 年「母語教育」宣告失敗?我們需要「搶救台語」嗎?──我在新加坡的四個觀察

【打破學語言的迷思】「中英文都學不好了,幹嘛多此一舉」的荒謬,與語言的「現實價值」

作者簡介:

王善,阿善,就讀於台大外文系,熱愛語言、電影、閱讀、藝術和旅行,立志成為跨越文化的媒體人;現為 YouTube 創作者、「Rti 央廣」英語廣播主持人。閒暇時除埋頭電影世界,也關注英國流行文化。入選金馬影展青少年電影團,亦曾擔任慕尼黑兒少影展青少年評審。