【專欄】能讓人工智能具有倫理性嗎--從Uber自駕車肇事談起

2018年3月18日晚上九點多,於美國亞利桑那州,一輛Uber所屬的自駕實驗車,撞到一位牽著腳踏車穿越馬路的行人,而成為世界第一起自駕車致人於死的案件。美國交通安全部於經過一年半的調查後認為,是因自駕車將行人判定為未知物體,才造成如此的結果。如此的結論,這除了顯示自駕車必須要有更精準的技術,才能正式上路的問題,更凸顯人工智能,到底能否為倫理的選擇?

就自動駕駛來說,必然得考量到緊急時的因應程式,這就讓人想到一個倫理學的問題―「電車難題」(Trolley Problem)。所謂電車難題,是1967年由英國哲學家菲力帕・芙特(Philippa Foot)提出,當軌道上的電車煞車失靈,駕駛者若什麼都不做,將直接撞到5個工人;若右轉,則會撞上一位工人,這位駕駛到底該怎麼辦?不作為或是將電車右轉?

主張緊急避難的「電車難題」

這個難題,涉及邊沁的功利主義與康德的道德義務主義之爭,自然會因自身的道德標準而有不同答案。惟就現實來說,轉彎撞死一人的選擇,似乎會占多數,若真如此,是否可以5人生命大於一人生命來阻卻違法呢?

如果依據我國刑法第24條第1項,基於緊急避難的行為是可以阻卻違法的。不過,主張緊急避難必須是基於不得已,更重要的是,保全的法益必須大於犧牲的法益。在電車難題裡,煞車失靈,選擇右彎也屬最後手段,且為救5人生命而犧牲一人,似乎也符合法益權衡原則。但生命無價,是不可以人數多寡來論孰輕孰重,因此就算為了5人性命而犧牲一人,也不能主張緊急避難來阻卻違法,頂多以避難過當來減輕或免除刑罰。

不過,電車難題就算發生,在決定時間如此倉促下,實不可能為理性的選擇。只是這個難題,在未來自動車上路時,就有具體運用的可能性。因在無人駕駛車,沒有自然人可為控制,程式設計者就須考量任何可能發生的緊急狀態,並於程式中內設其反應機制。如無人車內載有兩位乘客,在道路前方忽有路樹倒下,無人車若要迴避,就會跨越雙黃線,此時就必須以乘客的生命保護大於交通安全的遵守為程式設計的上位原則。但當同樣載著兩位乘客的無人駕駛車,面對前方道路突然有大石掉落,在煞車不及下,到底要設計讓車往左或往右迴避而撞擊他車,抑或基於保護多數人,致不為任何迴避而直衝,肯定就會出現問題。

倫理規範數位化的棘手問題

以Uber事件來說,若要進行刑事究責,在法人尚無法成為犯罪主體下,檢察官也無法對車輛擁有者,即Uber公司起訴,致使歸責對象轉向自駕車裡的安全人員。只是在自駕車的場合,位於駕駛座的自然人,能介入操縱的可能性,會因技術等級的差別而有不同。尤其是目前處於實驗階段的自動車,如一般所稱的等級四,基本上全由電腦操控,人力介入被限縮至極小的空間。甚至到了所謂等級五,所謂駕駛座已無方向盤,人力介入的可能就降為零。也因此,若全針對位於駕駛座的自然人為究責,實也有違行為責任原則。若果如此,究責的對象,就必然指向程式設計者。

只是就程式設計者來說,面對千變萬化與不可預測的路況,能否將所有交通規則,全數納入程式裡,這本身就是個很大的問題。尤其是對於道德、倫理規範,能否數位化成簡單的程式,恐更有疑問。如以Uber肇事事件來說,自動駕駛車,雖已偵測到前方有物體在移動,甚至已判定疑似為行人,但不管是行人或者物品,此等穿越皆違反交通規則,若突然轉向,也會造成他人的傷害,致陷入極大的矛盾。

事實上,在自然人駕駛的場合,對於如此情況的選擇,並不可能有這麼仔細的思考,往往是直覺反應。但奇特的是,當人工智慧逐漸取代人類大腦時,由於其是最純粹的理性思考,就得把這些複雜且可能相互矛盾的倫理規則,灌輸到電腦裡。但除非在可見的未來,人類能製造出擁有感性、直覺與價值判斷的人工智慧,否則,要將倫理規範數位化,將一直是個棘手的問題。 專欄屬作者個人意見,文責歸屬作者,本報提供意見交流平台,不代表本報立場