在AI天空下,放射線科醫師何去何從?

·15 分鐘 (閱讀時間)

AI 比核彈還危險---Elon Musk

AI 發展日新月異。自1997年,IBM的「深藍」(Deep blue)再戰西洋棋世界冠軍卡斯巴羅夫,以六局全勝之姿以來。各行各業似乎都慢慢AI化,如股票交易市場已經不見交易員討價還價。取而代之的是AI操盤的精準投資與買賣。同樣的,在精準醫療上也是如此。2020年一月一日,Nature 有篇論文甚至說AI取代放射線醫師的時代已經來臨。如果真是這樣,那麼放線科醫師何去何從? 在AI介入之後,醫病關係加入一個中介者後,變成醫-AI-病關係又有甚麼社會意涵? 醫學倫理與法律又會有甚麼重大的轉變? 值得吾人探究。

Nature那篇文章篇名為 “International evaluation of an AI system for breast cancer screening。” 作者是Google工程師 Scott Mayer McKinney 和其同事等等。他們認為AI系統在乳癌檢測與判斷上,已經比放射線科醫師更為精準。

過去在AI輔助下的,影像醫學有長足的進展,如電腦斷層下的肺部結核診斷或胸腔X光片判斷是否氣胸等等。不過,在這些案例中,AI通常只是輔助性的,還是無法取代醫師判讀與診斷的角色。可是在Nature這篇文章卻宣稱整個AI系統在詮釋乳癌上,已經比醫師好,可取而代之了。

AI 夠聰明了嗎?

AI發展到可以完全取代放射線科醫師,對我們而言,還是一種驚奇。因為過去二十年來,只要提到由機器產生的人工智慧( artificail intelligence ),一般就是比人還糟糕。如韓劇《浪漫醫生金師傅》所呈現的,在醫療現場引入機械智能,反而讓醫生更忙碌,更為了該系統的鱉腳與為其糾錯,而疲於奔命。AI在變化很大,如在有限變化的領域中( 西洋棋、象棋與圍棋) ,這十年來的發展已經令人瞠目結舌。人類無法企及。可是在幾乎有無限方向與頭緒的開放現場中,AI似乎還是無法解決臨床醫師的技術難題。這也是為什麼Google工程師在Nature所宣示的,AI已能取代放射線科醫師,會造成那麼大的轟動的原因。

就技術能力而言,AI完全取代放射線科醫師的時代已經來臨。(圖片摘自公視新聞)

當代社會中,技術發展似乎一日千里。1698年,當第一台商用蒸汽機開始在平台上,緩慢地將礦坑積水抽出時。大概沒有人會想到,三百多年後此機械動力技術會發展到足以把人送上火星,或是穿梭往返地球與月球之間。同樣的,當數位乳房醫學開始發展時,也很難想像電腦最終可以發展出如此多元而複雜的影像診斷技術:分析影像,與不同時空所建立的常模交叉比對,釐清病歷紀錄的實驗室價值,並且產出清晰、可靠的醫療報告。

或許Google人工智慧團隊說他們可以取代放射線科醫師, Elon Musk說五年內,AI會取代人力,還言過其實。可是,在不久的未來,在電腦演算與處理資料的功能愈來愈強大,資料庫愈來愈完備時,機械比我們還會判讀醫療影像,或許一點都不離譜。

在AI 天空下,放射線科醫師的身分危機

醫師無法控制醫療人工智慧的發展。人工智慧在放射線醫療上的運用,會受到政府、保險公司和醫療影像提供者的牽引。大家都希望以更低的價格與更高的效率,往精準醫學邁進。醫師很難懂得其中相關的所有技術細節,AI演算法則,電子電機,系統分析與成本精算等等。

醫師就只是醫師。AI也不需要完美到完全取代放射線科醫師。如果使用AI會讓放射線科醫師產出更精準的醫療報告,那麼很快的,所有放射線科醫師都會被要求知道怎麼使用AI並在臨床上使用AI。如果有一天,AI獨立作業會比AI加醫師還更完善,也就是讓醫師加入醫療系統中反而會拖累整體表現時,那麼醫療環境就會要求醫師退出,只聽AI的。

當AI在精準醫療上扮演愈來愈重要的角色,甚至可取代醫師時。有些難解的問題,就會浮現出來,讓我們不得不面對:

醫師被AI取代的流程會像甚麼樣子?

執業中的放射線科醫師要如何因應此變局?

近五年、十年或二十年會需要多少放射線科醫師?

又需要多少放射線科住院醫師? 這些醫師又該接受甚麼樣的訓練?

到目前為止,或許還沒有任何醫療專業因應過此變局。在沒有前車之鑑的情況下,放射線科社群只得在沒有地圖的情況下,自己摸索出路。

當AI在精準醫療上扮演愈來愈重要的角色,甚至可取代醫師時。有些難解的問題,就會浮現出來。(湯森路透)

如果我們高估AI發展進程,放射科醫師紛紛另謀高就,培訓太少的住院醫師,那麼我們就會面臨放射線科醫師人力短缺。如果我們低估AI的衝擊與影響,那當然也可能培養出太多放射線科醫師,英雄無用武之地,而甚至找不到工作。

一般假設AI廣泛使用在精確醫療上是善的:在AI天空下,醫療品質會更好,更快速,更便宜,甚至更平等。這也是醫師的天職或目標。可是AI最終可能取代醫師,如放射線科醫師。就像是目前圍棋已經沒有人可以下贏AI。Alphago Zero打敗天下無敵手,百戰百勝。問題是,甚麼時候放射線科醫師會被取代?

Google團隊在2020年元旦宣告:就是現在。AI或許不會馬上取代每個放射線醫師。人工智慧還是無法馬上掌握所有有關影像醫學的技術細節。不過,就在AI可以大量分攤工作時,放射線科醫師花時間盯螢幕看的實作,將愈來愈不重要。放射線科或許也跟精神科醫師類似,關鍵實作在於與病患溝通,直接面對病患,解決問題。想濟世救人的醫師當然也該好好學會此技能。

問題是,這樣的放射線科醫師,不用解讀醫學影像的,還可以稱為放射線科醫師嗎?

在AI天空下的新醫病關係

台語俗諺:仙人打鼓有時錯。就算在成熟領域中,AI也會犯錯。如在圍棋領域中,相當於一流選手累積一千萬年對弈經驗的Aphago Zero,還是會下臭棋。處理影像醫療的AI或許有累積到超凡入聖的一千萬案例,但在開放領域、充滿變異的醫學範疇,還是會犯錯,雖然與人相較,其犯錯機率或許可降低到很低。如依2019年的台灣經驗,民事訴訟賠償金額來看,放射線醫療科排名還蠻前面的,僅次於醫美與婦產科 (https://doctor119.tw/91217/)。其主因是沒看出腫瘤,延誤治療。如果是AI診斷,沒看出腫瘤時,那該如何是好?

就以前的醫病關係來講,當然是不可能的。AI最多只能是輔助性角色。可是,如果像Google團隊所說的,有關影像醫療上,AI已經可完全取代醫師。醫師反而退居於輔助性角色,那該如何是好?( 案: 就目前台灣醫療法規範來講,這是不可能的。台灣還是限定在醫師得親自診療。醫師為主。所以影像判讀錯誤,病家也只能向醫院或醫師求償。然後,醫師或醫院再向AI廠商求償。)

以前的醫病關係,現在中間加入AI,而且是以AI為主,醫師為輔,也就是轉變成AI-醫-病關係。那麼過去建立在醫師為主要行動者的醫療倫理與法規範,也就不得不大修特修:如法規範上,允許遠距,允許AI為主負責醫療診斷等等。

有趣的是,在此新關係中,醫療體系如何透過醫療事故糾錯,自我校正呢?

醫療診斷總是充滿各式各樣的風險與不確定性。AI為主的診斷,恐怕也無法例外。(湯森路透)

過去處理醫療糾紛,為了資訊透明與自我校正,通常賦予醫師這種高風險職業刑事責任豁免權:只要他知無不言,言無不盡,讓醫療體系得以糾錯、持續精進的話。因為很多醫療事故不見得是人的問題,而是體制問題。如麻醉師為病患插管,本應插入氣管,卻錯插了食道,導致病患在麻醉中缺氧而死。因為醫療法制以刑事豁免,交換資訊透明。結果發現:那是因為,過去病患在麻醉狀態中,麻醉師沒有簡單的檢測器材,藉以了解病患身體狀態。醫師通常只能靠經驗與目測。所以,後來發明了一些簡易檢測器材後,這種麻醉致死的案例就降 到原來的百分之一。在釐清事實,因果關係之前美國每年有兩千人因此致死。(傅大為,2003 )

不過,儘管力求資訊透明,釐清事實,醫療現場還是有些系統性錯誤,要累積多年,才讓人發現。如治療女性更年期症況的賀爾蒙療法。大家吃了二、三十年後,才發現醫療效果不顯著,而且還有嚴重的副作用。又如在《藥廠黑幕》一書中大力抨擊抗憂鬱症的藥物。不僅無效,而且還會掏空病患的錢包和健康。然後,在《柯倫醫生吐真言》( Dr. Golem )一書中,介紹十九世紀就開始盛行的扁桃腺切除手術,要過了一百多了,才在2002年有論文指出:「扁桃腺切除與線條增生體切除,當那些受到反覆喉嚨感染輕微影響的兒童所帶來的好處,無法正當化此種手術所帶來的風險、傷害及成本。」

醫療診斷總是充滿各式各樣的風險與不確定性。AI為主的診斷,恐怕也無法例外。如此,我們如何要求AI系統資訊透明化呢? 對一般人而言,AI似乎是個遙不可及的大黑箱。

AI畢竟是機械。機械無關倫理。倫理是人的關懷。醫療作為志業,不只是技術精進與否,還牽涉到兩大倫理:一是科學的倫理:持續精進,並檢核自己是否犯了系統性錯誤,彷彿戴著眼鏡照鏡子般。戴著眼鏡,讓我們看得更清楚。可是眼鏡上如果有油汙,染色了,我們可能會覺得這世界就是如此油汙、染色的。所以,還要照鏡子檢核自己的立足點,才能免於系統性偏誤。為了科學的倫理,放射線科醫師才會想到運用AI來幫助自己診斷。可是AI是不是一把油汙、染色了的眼鏡呢? 除非我們照鏡子,隨時保留可以打開那個黑盒子,釐清其演算法則的能力,否則我們真不知道AI是否犯了系統性的錯誤。如人類犯了系統性錯誤一百多年,誤將兒童的扁桃腺切除一般。二是人文倫理:to do no harm。醫師當以同胞之愛,平等對待所有病人,不傷害其身體或權利。

用過Siri或Android的人,或多或少,會覺得蘋果或google的AI似乎或多或少將使用者的隱私給出賣了。因為我們隨意間說到甚麼,很快地就會收到相應的廣告,無論手機是否開機。然而在AI運用最徹底的國度中,中國,卻也可以說是人權迫害最嚴重的地方。中國民運人士,《她們的征途》的作者,趙思樂說:她的網路貼文,不管是用甚麼方式登錄的,在中國活不到三十秒。更不用說實體的人,在大數據AI控制下,只要是中國共產黨想抓的人,出現在中國領土上,幾乎是寸步難行。

這種人權迫害的情事,會不會也發生在放射線醫療上的AI診斷呢? AI畢竟是機械。機械不管倫理。

又如麥克魯漢在《認識媒體》一書中所說的,在電的時代,人的腦神經中樞會被切斷。AI是電。當我們過度倚賴他時,我們某些能力就會萎縮。如計程車司機過度仰賴Google 導航,他認路、走出迷津的能力隨即下降一般。如果有一天AI背叛人類,或只是離我們而去,如電影《雲端情人》所呈現的,作為腦神經中樞被切斷的人類又該如何是好?

高科技,高風險,在AI天空下的我們也不能例外。

何去何從?兩點建議

在AI天空下,我們正邁入高風險社會。譬如說,在AI技術能力可以完全取代放射線科醫師時,我們完全放棄了醫療影像判讀專業人員的培養。那麼這個醫療領域,就勢必淪為AI公司說了算。那時沒有人懂放射線科醫學,也沒有人懂AI的演算邏輯時,當有系統性歧視或壓迫時,誰可以當英雄挑戰AI或AI公司呢? 要靠AI公司裡的員工嗎? 他們為了保住飯碗,又如何可靠呢? 這恐怕跟希望國民黨黨員反國民黨,一樣不切實際。

準此,We the people,締造社會契約的主要行動者,應謹守放射線科醫師為主,AI為輔的分際。那怕就國家統御與商業利益而言,純用AI比較方便,還是不能放棄關心倫理的醫師培養與職業。AI還是機器,不會有科學倫理與社會倫理的關懷。

一如圍棋,人為主,AI為輔,還是可幫助我們突破人的某些偏見,讓圍棋有很大的進展。可是如果AI為主,人為輔,讓職業棋士消失了。緊接著也就是下圍棋人口流失,棋道淪亡,殊不可取。

AI還是機器,不會有科學倫理與社會倫理的關懷。(湯森路透)

AI 下圍棋有三變:Alphago, Aiphago Zero 和Alphago New Zero. 第一代要盡可能輸入人類歷史上的所有棋譜,作為資料庫,讓AI學習。此時,韓國棋士李世石還僥倖贏過一場。第二代則是AI自己摸索,不輸入棋譜。由於計算機運算速度快到不得了。沒多久時間,Alphago Zero就相當於頂尖職業棋士下了千萬年的經驗。人類再也下不贏AI。不僅下不贏,而且不少職業棋士表示,所google所發表的Alphago Zero 棋譜看來,不少玄妙之處,如神仙對弈般,人已經無法理解。第三代則進一步挑戰既有的圍棋規則。讓AI在沒有既有圍棋規則下對弈。

圍棋規則會隨著時代變遷而有些改變的。如中國在沒學習日本之前,棋盤上會在星位對角各有兩顆白子或黑子,象徵先天的限制。然後,在記點或算目數時,多一塊棋,就要扣點的。不像現在就算圍到的領域大小,不管是活成一塊或很多塊。在Alphago New Zero的協助下,人類可藉此審視既有的遊戲規則合不合理。

值得注意的是,這三大變都是人力介入、改變演算法則的結果,而非AI有意識審視並進而改變自己演算邏輯的基礎。雖然人無法像AI那樣算得又快又好。也就是說,AI只是演算功能強大,但無法有意識的校正其演算邏輯的謬誤。如果人力都不介入的話,AI演算恐怕還會更強化或鞏固人類既有的系統性偏見與迷失。也就是說,我們如果一直仰賴AI 動手術,切除扁桃腺。它不會想到那個手術可能是多餘的。那怕過了一百年。放任AI演算不管,其演算邏輯中預設的倫理迷失或謬誤,不僅不會更正,而且還會更形強化。

所以,我們應打開醫療AI演算法則的黑盒子。AI不是中性的。如我們看《雲端情人》中的AI,就是白人,強調自我意志與個體主義的文化觀。那AI可否是黑人呢? 可否像蜜蜂呢? 可否轉而強調關懷倫理與天人合一的倫理觀呢? ( Stephen Cave & Kanta Dihal, 2020 )為了避免系統性偏見,為了持續的自我校正成為可能。我們都有必要打開醫療AI的黑盒子。雖然AI公司可能反對說,這會違反其商業利益。可是醫療關乎生命、身體,其價值非金錢所能衡量。基於公益,我們有必要透過強制授權,迫使AI公司開放原始碼,為其保留合理利潤即是,不能任其壟斷。否則我們真不知道魔鬼會從哪個環節被釋放出來,鋪天蓋地,犯下違反人權罪( Neil Savage, 2020 )。

總之,就技術能力而言,AI完全取代放射線科醫師的時代已經來臨。如何因應此變局,我們該慎思明辨。AI畢竟是機械,沒有倫理關懷。為此本文主張,在此應變過程中,我們應謹守兩大原則:一、醫師為主,AI為輔。二、應打開AI演算法則的黑盒子,來因應或塑造有人性溫度的高風險社會。

※許可風( 北醫醫學系學生) 、許全義 (台中一中教師)

更多上報內容: