輿論壓力太強大!Apple 蘋果宣布延遲推出 CSAM 兒童保護功能

Apple 蘋果在 2021 年 8 月初宣布將在 iPhone、iPad 和 Mac 加入保護兒童安全的新功能,其中一項就是在 iCloud Photos 加入檢測 CSAM 兒童性虐待照片。

然而由於 CSAM 功能爭議太大,又與 Apple 蘋果標榜客戶隱私的承諾牴觸,全球輿論發酵下,如今蘋果宣布將延遲推出 CSAM 兒童保護功能。

Apple 蘋果在 8 月上旬宣布將在 iCloud 照片進行 CSAM 檢測技術,這項技術目的是為了保護客戶的隱私,同時滿足政府機構在調查恐怖主義和兒童色情內容方面的需求,並計劃在 iOS 15、iPadOS 15 和 macOS Monterey 更新時一同發布。

同時蘋果更進一步證實,自 2019 年迄今蘋果會掃描 iCloud 郵件是否存在 CSAM 兒童性虐待材料內容。

無論 Apple 蘋果如何辯解與說明,CSAM 檢測技術卻受到各大新聞及科技媒體、安全研究人員、揭密者 Edward Snowden、WhatsApp 執行長 Will Cathcart …等一面倒的批評與反對,也令不少蘋果員工與使用者擔心政府機關會利用 CSAM 檢測搜尋其他內容,甚至讓蘋果公司保護客戶隱私的承諾蕩然無存。

在排山倒海的輿論下,Apple 蘋果日前發表聲明宣布,「上個月宣布了一些新功能計劃,目的是幫助保護兒童免受『利用通訊工具招募和剝削他們的掠奪者』的傷害,並限制兒童性虐待材料的傳播。根據客戶、倡導團體、研究人員和其他人的意見,Apple 蘋果決定在未來幾個月內花更多時間收集意見並進行改進,然後再發布這些至關重要的兒童安全功能。」

從聲明來看蘋果決定延遲推出 CSAM 檢測,就代表妥協,但是蘋果在聲明裡強調這項功能至關重要,似乎暗示著公司未來仍有可能進行 iCloud 照片的 CSAM 檢測技術,只是不確定發布時間。

原文網址:三嘻行動哇

圖片及資料來源:thehackernewsMacRumors

看更多三嘻行動哇文章
資安人員開發出內建隱藏晶片的 Lighting 連接線,可竊取使用者的密碼等資料
你的 1922 簡訊實聯制曾經被調閱嗎?快輸入手機號碼查看看吧!