人工智慧與民主社會 人性、科技與倫理的哲學面向探討

人工智慧可以幫助我們重塑政治哲學的視角,擺脫人類中心主義的局限性,將其他生命形式納入考量。(圖片來源/Pixabay)

(讀者投書,作者為林倖如)

AI市長與AI棋士

「Today, I want to ask your advice to make a decision…」

阿姆斯特丹市的人工智慧市長,正面臨預算政策的選擇難題:到底是先讓老年人還是年輕人優先獲得預算分配,為此,希望來訪的你能夠幫忙提出建言。

以上沉浸式劇場的模擬情境,是由日本藝術家Tomo Kihara於2017年所創作。關於人工智慧市長的決策,法國蔚藍海岸大學哲學系教授,目前兼任思想史研究中心(CRHI)副主任的凡妮莎.努浩克(Vanessa Nurock),提出了她的觀點。

「這個作品,充分展現出人工智慧系統在處理複雜社會問題時的二元性思維,這位人工智慧市長迫使參與者必須在老年人與年輕人之間,作出二擇一的決定。」

人工智慧市長基於所收集而來的大量數據進行決策,但其提供的解決方案背後所依據的理論架構與道德體系,卻一直是個謎(Black Boxing)。

無獨有偶,在2017年,Alpha Go「人工智慧」圍棋棋士,戰勝了「人類最強」圍棋棋士。

「當時很多媒體或是書籍引用這個例子的時候,的確是用這樣的形容方式,但這似乎隱含了Alpha Go不只是消化了歷史棋譜,且有能力進一步發揮創意,發明新的下棋方法。」

巴黎高等師範學院教授多明尼克‧雷斯特(Dominique Lestel)認為,人工智慧是資本主義的產物,有許多的研究人員和資本家參與其中。

「所以我的疑惑是,到底是誰在Alpha Go背後下棋?人工智慧具體來說到底是什麼?」多明尼克提問。

人工智慧的晦暗之處:技術結構、價值體系與社會影響

對於人工智慧的各種想像與猜測,凡妮莎提醒,我們需先回到人工智慧的結構性與價值體系問題。

「人工智慧系統通常是基於機器學習和深度學習等技術開發而成,然而其開發和運作過程難以完全透明化,除了訓練資料的問題,人工智慧系統本身的結構設計,可能也隱含了某些價值體系與取向。」凡妮莎解釋。

例如,人工智慧系統的設計者,可能將自己的價值觀和偏好融入到系統中,而這些價值觀,並不代表整個社會的共識。換言之,人工智慧的決策可能受到訓練資料的偏見和局限性的影響,導致出現不公平或歧視性的結果。

而前述人工智慧市長的二元性思維,可能是源於工程師們在設計人工智慧時,採用二維式理論結構模型和思維方式,導致人工智慧在處理複雜社會問題時,傾向於採取簡單的二元選擇,過度簡化問題。

「這種結構性的問題,可能會強化某些價值觀,當人工智慧系統被迫作出二選一的決定時,這種強制性的二元思維,可能會造成一種宰制性的關係,將參與者分成兩個對立的陣營,進而導致價值觀的簡化和對立,」凡妮莎指出,「這不僅會帶來衝突、破壞討論的空間,還可能限制並簡化人們對於複雜問題的思考方式,進而危害民主的發展。」

因此,凡妮莎認為,人工智慧的發展不僅是一個技術問題,也涉及到社會、倫理和政治等層面。

呼應凡妮莎的見解,多明尼克將其稱為人工智慧的「兩大晦暗之處」。

第一個晦暗之處是軟體和技術層面的不透明性。今日所謂的神經網路應用,已經不再是教機器做什麼事情,而是要機器自己能夠去面對、接受和學習數以百萬計的資料,

「然而,沒有人清楚地知道機器是如何進行的,整體學習過程處於一種模糊曖昧不清的狀態。」

而第二個晦暗之處,在於人工智慧所帶來的影響。

多明尼克認為,「我們花了太多的力氣和精神討論第一個晦暗之處,而太少去討論人工智慧帶來的影響,因此無法看到與理解人工智慧到底對人類的生活帶來的影響全貌。」

從動物行為到人工智慧的探索之路

多明尼克的早期研究與著作原本是在動物行為學領域,近期他在巴黎高等師範學院,嘗試建立「哲學動物行為學」這個跨領域新學門。

「我研究動物的行為與思考方式:什麼是所謂的動物?如何去了解動物?如何跟動物共存?而且,我並不滿足於只閱讀紙本資料,當我跳開所謂專家撰寫的論文,親自到現場進行研究時,大大開闊了我的視野。」

從巴黎植物園附屬動物園到野外叢林,從博士論文研究「研究螞蟻的專家」在想什麼,到觀察大猩猩的作息結果無聊到打瞌睡跌進河裡,從田野調查中,多明尼克獲得了許多有趣的哲學思考提問。

「例如,為什麼大猩猩什麼都不用做,就可以活得好好的?是因為大猩猩很笨嗎?還是很聰明?從進化論的角度來說,無所事事的意義是什麼?」

在研究動物的階段,多明尼克出版了幾本書,其中《動物文化的起源》(Les Origines animales de la culture)是最廣為人知的著作,這本書提出了一個新的論點,討論了動物的文化面向,挑戰人類才具有文化的傳統觀點。

「造反」機器的生命:界定與建構

在2011年左右,新科技的進展引起了多明尼克的研究興趣,其中人工智慧的發展,尤其是深度學習技術的突破,顛覆了傳統對於機器的想像,機器不再只是按照程式指令執行任務,而是能夠自主學習。

目前,多明尼克的研究可歸結為三個方向:智性的演化與進化、無政府主義、以及與「會造反」機器的共存,三者彼此緊密相關。

多明尼克解釋,「我們正面臨一個巨大的社會轉變,這種革命性的變化,正在改變我們對人類這個物種的定義,我們不應該只關注如何讓人類更長壽或更有智慧,而是要有更大的野心,去思考如何有智慧地讓人類這個物種,朝向我們想要的方向轉變與發展。」

他認為,生命的定義必須符合四項觀察條件:第一是關係式的,機器和人之間存在什麼樣的關係,會被認為是具有生命;第二是情境式的,在什麼樣的情境下,機器會被認定是具有生命;第三是現象式的,也就是機器所帶來的現象;第四是建構式的,機器通過人們的認識和理解進而產生意義,也就是基於建構條件下被認定具有生命。

其中,建構主義是一種哲學理論,認為人造物和機器之間可以產生意義,這種理論挑戰了傳統的生命界定與理解。

「因此,我們需要把這些人工智慧機器視為是有生命的,把人工智慧納入這個混種的社會裡,並試圖去建立一個新的社會規範,」多明尼克認為,「人工智慧在政治層面正影響著我們的社會,是正在發生與嶄露頭角的政治行動者,帶來了許多完全無法掌握的影響。」

因此,對多明尼克而言,這些「會造反」的機器是具有生命的,因為「他們」的存在,已經從最根本改變了「我們」對事物的界定和定義,我們應該從這些新科技與新機器存在的新現象,去了解為什麼他們也具有生命。

「最重要的是,我們必須學會如何與那些『會造反』的機器共存,而不光只是使用他們,甚至進一步建立一種混種的社會,共同尋找前進的方向和意義。這就是我當前進行哲學探索的核心所在。」

多明尼克在2021年出版的《機器造反:生命的後生物學理論》(Machines insurrectionnelles: Une théorie post-biologique du vivant)一書中,以搭配漫畫插圖的編排方式討論了上述的觀點,同時充分展現了他的信念:我們應該發明新的哲學形式,來應對當下的挑戰。

重塑人工智慧的價值取向:專家與公民的參與

凡妮莎過去的研究議題,涵蓋正義與關懷、動物倫理學、奈米科技、網路遺傳學、以及神經倫理學等領域,近期她對於人工智慧,特別是其所帶來的倫理、政治與科學的涉獵面向感到興趣。

「我們在發展人工智慧時,不僅要關注輸入資料的偏見,更要審視人工智慧系統本身的價值取向和結構設計。只有深入探討人工智慧背後的價值體系,我們才能確保人工智慧的發展不會危害民主,而是能夠更好地服務於社會。」

除了曾協調安排《人工智慧:倫理與政治關鍵問題》(Cités期刊2019年4月號,PUF出版社)等著作之出版,今年6月甫出版的著作<新科技的新倫理?奈米科技、網路遺傳學、人工智慧與倫理學>(Quelle éthique pour les nouvelles technologies?: Nanotechnologies, Cybergénétique, Intelligence Artificielle),她在書中重新梳理了這些科技涉及的倫理問題。

凡妮莎認為,「我們需要建立一個更加公平、包容和可信的人工智慧生態系統,讓技術進步與社會價值相互協調,以造福人類。」

對於公民的參與,多明尼克回應凡妮莎的觀點,並進一步說明。

「我們必須脫離一種陳腐的想法,即問題應該要丟給學者專家去處理,好像他們都會知道答案。我反而覺得,出於對議題的關心與興趣以及種種擔憂,我們應該把問題拿回來思考與討論。」

多明尼克解釋,相對於使用政治「極右派」或「極左派」的政黨二分法,他偏好稱其為「極端力量」的政黨,這些政黨常常主張,我們應該要照顧老人、替老百姓解決事情,然後去找了一群專家專門來解決事情,而這些專家常常被稱作「先鋒」。

「但面對科技的影響,已經不再只由科學家和專家單獨決定未來的推進方向,而是『我』作為一個『個人』,『我』希望科技往什麼方向前進,是這樣的思考方式。」

政治哲學新視角

多明尼克對於「人」與「生命」的定義,以及超越「極端力量」的政治思維傾向,係從自身無政府主義的立場出發,因此,他對於人工智慧進化論的觀點建構,跳脫了傳統的思考框架。

「今天,我們已經不應該問,我們『會』變成什麼樣子的國家、什麼樣子的公民,而是要去提問,我們『要』變成什麼樣子,才能被界定為『人』,需要重新思考『人』以及『非人』的界定。」

多明尼克認為,在新科技造成的,已不止在文化或其他層面的影響,而是直接牽涉我們如何界定『人』到底應該是什麼。

「在這樣的過程中,作為個人,我們可以試圖去影響什麼,讓我們可以在新科技的影響下,變成我們所想要的人的樣子。」多明尼克認為,「所以,這已經超越了文化,是屬於社會的思考層面。」

同樣的道理,多明尼克感嘆,在西方的政治哲學中,動物和植物往往被忽視,只有人類才是政治主體,直到近年來環境主義興起,人們才開始思考,如何將其他生命形式納入政治哲學的視野。

「可悲的是,當我們開始重視動物和植物時,它們已經瀕臨消失,我們卻仍然停留在父權和母權的極端角度,試圖去保護和照顧這些瀕危物種。」

他解釋,如果把視野從人類擴展到其他生命形式,嘗試從不同的角度去看待問題,會有不同的發現和思路。從更深層次來說,人工智慧挑戰了我們的政治哲學傳統,或許可以幫助我們建立一種新的政治哲學,可以幫助我們建立一些機制,將人類與其他生命形式融為一體,使人類能夠真正地與動物和植物對話,共同建構一個更加公正、和諧的世界。

「我們需要重新思考什麼是公民,什麼是政治主體,惟有這樣,我們才能真正地理解人工智慧為人類社會帶來的挑戰和機遇。」

關於思考層面擴大的同時,凡妮莎亦提醒,需警惕陰謀論思維的危害。

「思考人工智慧的問題時,很容易掉進陰謀論的思維陷阱,誘使我們用過度簡化的方式尋找問題的解答,忽視問題的複雜性和多樣性。但不可避免,在人類的認知進化過程中,確實容易傾向於採取捷徑式思考方式。」

因此,凡妮莎建議,要對抗這種簡化思維,必須非常留意實質內容和細微差異之間的重要性,例如,留意少數族群的觀點,且不要試圖去過度簡化或抄捷徑,這樣才能夠更好地理解問題的複雜性。

結語: 展望人工智慧的未來:理性與包容

整體而言,人類社會也許可以採取以下措施,以確保人工智慧的良善發展,具體行動包括:

提高人工智慧系統的透明度和可解釋性:要求開發者提供更多關於系統運作的資訊,讓公眾能夠了解人工智慧的決策過程,並監督其是否存在偏見或歧視性。

培養人工智慧相關從業人員的倫理意識:加強相關從業人員的倫理教育,使其在設計和開發人工智慧系統時,能夠更完善地考慮到社會影響和價值取向。

建立跨領域的倫理審查機制:在開發和部署人工智慧系統時,應該由跨學科的專家團隊進行倫理評估,確保人工智慧的設計和應用,符合社會的價值觀和道德標準。

鼓勵公眾參與AI治理:為公眾提供更多參與AI治理的機會,讓社會各界的聲音能夠被聽到,共同塑造人工智慧的發展方向。

凡妮莎認為,在人工智慧的發展道路上,我們已經沒有辦法再強行套入過往規範,來組織我們的世界,我們需要保持開放和多元的思維,並努力去理解問題的多面性和微妙之處,除了保持警惕,也要保持理性和包容,努力去理解不同群體的訴求,尊重差異並促進對話,這樣才能夠更好地應對人工智慧帶來的挑戰,共同推動人工智慧技術的健康發展,造福人類社會。

對於人工智慧的未來,多明尼克抱持正面的看法,他認為人工智慧可以幫助我們重塑政治哲學的視角,擺脫人類中心主義的局限性,將其他生命形式納入考量,跳出進化論和認知習慣的規範框架,用更開放和包容的心態去看待世界。

尾聲: 未來科技,始終來自於人性

米蘭.昆德拉(Milan Kundera)在其著作《生命中不能承受之輕》(L'Insoutenable Légèreté de l'être),引用了這樣的一句話:

「人類一思考,上帝就發笑。」(Man thinks, God laughs.)

隨著社會的演化和發展,時光流轉至今,發明人工智慧、自許為萬物之靈的我們,似乎正在經歷類似的情境。

如果,人工智慧真的會思考呢?

機器人國籍、總經理、虛擬管家、布偶旅行社、AI假新聞,許多「虛擬」的事實,正在「真實」的世界裡上演。

如果有一天,我的老闆是AI機器人呢?

如果有一天,生命與愛情關係的理解和界定,已不再限於人跟人之間的關係,也可以是人與機器或人造物,像是與填充玩具之間的關係呢?

「如果AI能夠協助民主社會,向非人和其他生命領域延伸,那會是一個什麼樣的未來呢?」多明尼克大哉問。

(原始連結)


更多信傳媒報導
肩膀疼痛又發高燒 竟然是鈣化性肌腱炎作怪
腦袋中的不定時炸彈...「動脈瘤」治療有何
鮮吃鮮營 果然健康