專家傳真-AI科技引發倫理道德爭議

AI科技可以促進人類生活,但也無可避免會侵蝕人們的自省和反思能力,形成許多前所未見的道德倫理問題。圖/freepik
AI科技可以促進人類生活,但也無可避免會侵蝕人們的自省和反思能力,形成許多前所未見的道德倫理問題。圖/freepik

今年4月24日,美國參議院通過要求TikTok限期將人工智慧(AI)應用程式售給非中國公司的法案,拜登總統立即簽署成為法律。美國政府此舉,主要是擔心TikTok依中國政府的要求、利用所蒐集到的用戶資料、暗中進行言論審查、操控社群並且帶風向,將構成對美國國安的威脅。

顯然,近年來隨著AI科技方興未艾的創新發展,已經對製造、商業、國防、醫療、通訊、交通、安全等幾乎各個領域都造成影響,大幅度改變了我們的生活。然而,更需要考量的是,發展AI應用經常會出現一些前所未見的倫理道德問題,例如:

一、造成偏見與不公:由於AI科技本身可能在設計時就具有的內在演算法偏誤、選擇性偏見和資料標記型錯誤,實際應用時可能牽扯出複雜的不公平歧視(如人種、性別)等倫理道德挑戰。

二、製造社會不安:運用非法的網路攻擊來盜用個資和隱私資訊,散發假訊息或煽動性言論來誤導群眾,造成社會不安,影響經濟文化的健全發展。

三、侵犯隱私牟利:AI平台控管不當,隱私個資被轉用於營利、宣傳或監控分析(例如前述TikTok案例的隱憂)。巨型網路平台業者(例如Amazon、Apple store等),利用自身優勢,和平台用戶直接進行不公平的競爭,違背反托拉斯法令。

四、排擠就業機會:AI的發展應用取代了人力,形成結構性失業,也造成更嚴重的社會貧富不均和產業重組,對人類生活構成新的威脅。

又如,雖然新產品持續改良,但AI相關產業從晶片、伺服器到大型數據中心仍然會消耗大量的電力和水等資源,也可能產生大量的廢氣和污染物;既排擠了其他產業的資源需求,也破壞了環境。野心國家違背相互嚇阻克制的道德規範,不受監督限制的發展致命性的AI自主武器系統,威脅發動毀滅性的網路戰爭。

如何防範這些潛在的風險呢?專家學者建議:個人持續學習可以與AI科技互補合作的工作技能,思考AI時代的人生意義,保持身心健康。亦或,業者於設計AI產品時即納入倫理規範和公平正義的考量;經常與用戶檢討問題並尋求改善,全力消除AI系統既有的偏誤和偏見。

業者更多自律,深入思考與AI發展相關的社會倫理議題;調整組織和文化,積極推動數位轉型。和政府合作加強資訊安全、限制AI存取資訊的濫用,平衡隱私保護與言論自由。

政府方面,則加強平台監管,持續建構更完整的社會福利安全網;妥善分配資源,訂定更嚴格的AI應用規範,避免大型業者濫用優勢,侵犯用戶的正常權益。也要在國際合作方面,持續探究AI軍事應用的道德規範,禁止製作AI生化武器,促成研發和擴散管制共識以防範毀滅性的AI戰爭。

AI科技可以促進人類生活的持續改善和進步,但也無可避免的會影響人生的意義、侵蝕人們的自省和反思能力,容易促成政治上的衝突和分化,形成許多前所未見的道德倫理問題。我們該如何和AI當夥伴,一面發展,又能預作準備,防範未來可能的不良影響,都需要各領域專家和各國政府持續對話和討論,尋求共識。希望未來人類既能充分享受AI科技創新的豐碩成果,又可以避免潛在災難,建立穩定、共存共榮的世界新氣象。

更多工商時報報導
面板跌勢緩 大摩喊買雙虎
立院送冬至大禮 降稅 延至2024年底
純網路保險公司正式開放 金管會明年8月開始受理申請執照