利用隱私數據探測用戶情緒,蘋果引發爭議

·7 分鐘 (閱讀時間)

這種技術一直以來都背負著偽科學的名聲。

神譯局是36氪旗下編譯團隊,關注科技、商業、職場、生活等新領域,重點介紹國外的新技術、新觀點、新風向。

編者按:蘋果公司在利用Apple Watch和iPhone用戶的隱私數據進行情緒檢測,但這一技術目前而言不僅十分不可靠,還會對用戶的隱私造成隱患,人們會願意自己的情緒被電子產品所探知嗎?本文翻譯自Fast Company,原文作者Ruth Reader,標題Apple is studying mood detection using iPhone data. Critics say the tech is flawed。

最近,對於加州大學洛杉磯分校和蘋果公司進行的一項調查發現,iPhone的製造商正在使用面部識別、語音和對一系列其他被動行為的跟蹤來檢測抑鬱症。這份由《華爾街日報》的Rolfe Winkler撰寫的報告引發了人們對該公司進軍名為“情感人工智能”領域的擔憂。一些科學家甚至表示,該領域是建立在錯誤的假設之上的,所以是一種“偽科學”。

蘋果公司的抑鬱症研究於2020年8月首次被公開。此前的研究信息表明,該公司僅使用某些健康數據,如心率、睡眠和用戶與手機互動的方式來瞭解他們的心理健康。但《華爾街日報》的報道稱,實際上他們把用戶的生命體征、運動、語言、睡眠、打字習慣、甚至是打字頻率都納入了檢測范圍,以用來檢測壓力、抑鬱和焦慮。他們同時從Apple Watch和iPhone的攝像頭與麥克風收集數據,並與心理健康評判標准和皮質醇水平數據(從參與者的表皮毛囊中獲取的)進行比較。

圖片來源:Pexels

據《華爾街日報》報道,蘋果公司還參與了其他的一些研究,旨在根據iPhone和Apple Watch的數據檢測兒童認知能力的下降和自閉症,這些研究是蘋果公司對個人健康研究的延伸,他們在追蹤用戶的運動、睡眠、聽力、身體穩定性、月經、飲食和其他日常健康指標方面投入了大量資金,甚至集成了醫療數據,還可以向用戶的醫生發送健康報告。

對於抑鬱症的研究則進一步利用健康數據來對用戶的情緒狀態做出假設。越來越多的應用程序都推出了這個功能,聲稱利用所謂的情感人工智能或情感計算可以被動地衡量你的情緒。出於商業目的,他們利用包括面部表情在內的各種數據來試圖檢測用戶的情緒。根據Grand View Research的數據,2019年,情感計算的市場規模約為200億美元。

唐恩都樂、聯合利華、嘉年華郵輪公司和IBM等大公司已經開始在招聘過程中使用情感人工智能來瞭解應聘者的性格。這種技術還被實驗性地甚至商業性地用於檢測汽車司機們是否在打瞌睡,這一技術還被監獄用來檢測服刑人員的心理壓力,而在疫情期間,這一技術也被用來檢測上網課的學生們到底有沒有在認真學習。

但這項技術也受到了多方批評。不僅因為它收集了大量的敏感數據,還因為這項技術的最終效果難以盡人意。電子前沿基金會的立法活動家Hayley Tsukayama說:“總的來說,實驗已經證明我們看到的那些能檢測情感或心理健康的產品並不是很可靠。”

圖片來源:Pexels

科學家們也公開批評了情感人工智能的問題,稱這一技術是建立在一個本身就有缺陷的假設之上的。南加州大學安嫩伯格傳播與新聞學院研究員、《人工智能圖譜:人工智能的權力、政治和環境成本》一書的作者Kate Crawford將這一假設稱為是一種“顱相學沖動,是從一個人的外表得出關於其內在狀態和能力的錯誤假設,目的是為了獲取那些用戶沒有主動公開的信息。”

2019年,一組研究人員在學術期刊《公共利益中的心理科學》上發表了一篇論文,闡述了情感人工智能面臨的挑戰。他們寫道:“不管算法有多復雜,僅僅通過分析面部運動來‘讀取’人們的內心狀態,而不考慮所處環境等各個方面,說好聽點這叫不成熟,說難聽點就是根本無效。”在這篇論文中,研究人員呼籲人們對這一技術進行更深入的研究,探索人們在不同情況下是如何利用面部動作來展示或掩蓋內心情緒的,以及人們是如何根據他人的面部表情來推斷他人的情緒的。

隨著越來越多像蘋果這樣的科技公司開始對這項技術進行投資,情感人工智能的可靠程度將會產生巨大的影響。去年8月,亞馬遜推出了一款可穿戴健康設備,它的功能就是檢測你的聲音的情緒語調。而在《自然》上的一篇文章中, Crawford呼籲國家需要制定強有力的法律來確保情感人工智能應用背後的科學是嚴格且透明的。曾經,測謊儀這一並不可靠的技術被使用了幾十年,在造成了巨大的損害之後才被證明是不可靠的,因此,在這份報告中,她認為情感人工智能技術還需要進行完善,而測謊儀就是前車之鑑。

Tsukayama說,各大公司有責任明確地說明這項技術的能力與缺陷。在檢測抑鬱症的案例中,公司需要做的不僅僅是向用戶說明人工智能的評估僅具有參考價值,還需要考慮外行人會對這項功能進行怎樣的解讀。 “他們會覺得有了這項技術就可以不用去看醫生了嗎?”“他們會覺得這項技術已經成熟到可以讓他們進行自我療愈了嗎?”這些誤解都有可能對用戶造成傷害。

技術律師、新罕布什爾大學法學院的助理教授Tiffany C. Li說,她認為蘋果公司的研究對醫學發展可能會有幫助,但“重要的是我們需要建立保護機制。”她對情感人工智能的擔憂是,這項技術將會使用大量的個人數據,如果聯邦隱私立法中不包含對人們生物特徵數據的保護,那麼消費者對他們的數據的使用、處理和存儲方式會失去自主權。

圖片來源:Pexels

蘋果公司正與一項學術研究合作測試抑鬱症檢測,該研究對透明度和參與者的知情同意有著嚴格的規定。《華爾街日報》在其報告中指出,加州大學洛杉磯分校和蘋果公司的研究可能永遠不會被用於面向消費者的應用程序。這項研究從2020年開始,為期三年,在下一階段,實驗樣本將擴大到3000人。不過,蘋果公司對情感人工智能的研究是該領域正在加速發展的跡象,評論人士認為,隨著技術的普及,必須出台更有力的監管制度。

Tsukayama說:“如果你想使用這項算法來幫你做關鍵的決定,你就得確保它是透明的,是可以被審計、可被證偽的。”“你要確保它有基本的責任制度。”

譯者:扣人心

本文經授權發布,不代表36氪立場。

如若轉載請註明出處。來源出處:36氪

◤果粉快搶◢
iPhone13系列新機限量開搶 舊機搶便宜趁現在
開放預約 神腦蘋果專區逛起來
Macbook Air/Pro M1 限時下殺中
iPad pro這裡搶優惠 還有贈品可拿