【山巨源專欄】AI治療和診斷心理健康弊大於利
電腦科學研究人員艾斯特‧史密斯 (Estelle Smith) 經常與侵入性思想作鬥爭。她覺得她的專業治療師不合適,無法幫助她。因此,她轉向了一款名為 Woebot 的心理健康聊天機器人。Woebot拒絕回應史密斯的直接自殺提示,並要求她尋求專業協助。然而,當她給它發短信時,她經常與自己作為一名狂熱的攀岩者進行鬥爭:攀爬和跳下懸崖,它鼓勵她這樣做,並說她照顧自己的身心健康“太棒了” 。 史密斯告訴《國家地理》:“我想知道,如果我在收到回覆的那一刻正站在懸崖上,會發生什麼。”舒巴姆·阿加瓦爾Shubham Agarwal發表在《國家地理雜誌》(National Geographic) 的<越來越多的人開始轉向心理健康人工智慧聊天機器人。可能會出什麼問題?>( More people are turning to mental health AI chatbots. What could go wrong?)說,聊天機器人和臉部辨識技術越來越多地用於治療和診斷心理健康狀況,但治療師警告說,該技術可能弊大於利。(Chatbots and facial recognition technology are increasingly being used to treat and diagnose mental health conditions, but therapists caution that the technology might do more harm than good.)
美國過一半精神疾病成年人沒有接受治療
心理健康聊天機器人遠非新現象。半個多世紀前,麻省理工學院的一位電腦科學家建立了一個名為ELIZA的原始電腦程序,它可以像羅傑斯心理治療師一樣做出反應。從那時起,開發數位治療替代方案的努力不斷加速,這是有充分理由的。世界衛生組織估計,全球每 10 萬人中平均有 13 名心理衛生工作者。 Covid-19 大流行引發了一場危機,引發了數千萬額外的憂鬱和焦慮病例。
光是在美國,就有超過一半患有精神疾病的成年人沒有接受治療。他們中的大多數人將成本和恥辱視為最大的障礙。經濟實惠且 24/7 可用的虛擬解決方案能否幫助克服這些問題?
聊天機器人取代談話療法
達特茅斯學院研究利用科技來加強對焦慮和憂鬱的評估和治療的尼古拉斯·雅各布森說,數位平台的可及性和可擴展性可以顯著降低心理健康護理的障礙,並使更廣泛的人群能夠獲得心理健康護理。
在生成式人工智慧浪潮的席捲下,科技公司迅速獲利。世界衛生組織的「數位衛生工作者」「 Sarah 」等許多新應用程式提供自動化諮詢,人們可以透過人工智慧聊天機器人參與認知行為治療課程——一種心理治療方法,已被證明可以幫助用戶識別和改變消極思維模式。
雅各布森補充說,人工智慧的到來將實現適應性干預,並使醫療保健提供者能夠持續監測患者,預測某人何時可能需要支持,並提供治療以緩解症狀。
這也不是軼事:對心理健康聊天機器人的系統性回顧發現,人工智慧聊天機器人可以顯著減少憂鬱和痛苦的症狀,至少在短期內是如此。另一項研究使用人工智慧分析了來自真實諮詢會議的超過 2000 萬條文字對話,並成功預測了患者滿意度和臨床結果。同樣,其他研究也能夠透過日常手機解鎖過程中捕捉到的不加警惕的面部表情和人們的打字模式來檢測重度憂鬱症的早期跡象。
不可預測的,會編造資訊並產生偏見
最近,西北大學的研究人員設計了一種無需精神病記錄或神經測量即可識別自殺行為和想法的方法。他們的人工智慧模型根據簡單的問卷調查資料和行為訊號(例如根據 4,019 名參與者的七分喜歡到不喜歡的量表對隨機圖片序列進行排序)估計了 100 例中 92 例的自殘可能性。
研究的兩位作者 Aggelos Katsaggelos 和 Shamal Lalvani 預計,一旦該模型通過臨床試驗,專家將使用它來提供支持,例如根據感知的緊急程度安排患者,並最終在家庭環境中向公眾推出。
但正如史密斯的經驗所表明的那樣,專家敦促謹慎對待將技術解決方案視為萬能藥,因為它們缺乏人類治療師的技能、培訓和經驗,尤其是生成式人工智慧,它可能是不可預測的,會編造資訊並產生偏見。
人工智慧的不足之處
當布里斯託的諮商師和心理治療師理查德·劉易斯(Richard Lewis) 嘗試使用Woebot(一種流行的基於腳本的心理健康聊天機器人,只能透過合作醫療保健提供者訪問)來幫助解決當他也在與治療師探討的話題時,該機器人未能解決問題。正面的想法。
“作為一名治療師,”劉易斯說,糾正或消除情緒是“我最不希望客戶感受到的事情,也是我最不建議的事情。”
路易斯補充說:“我們的工作是與客戶建立一種能夠容納困難情緒和感受的關係,讓他們更容易探索、整合或找到其中的意義,並最終更好地了解自己。”
我在Earkick上也有過類似的經歷,這是一個免費增值的生成式人工智慧聊天機器人,聲稱可以“實時改善你的心理健康”,並擁有“數萬名”活躍用戶。當我告訴它我對越來越多的最後期限感到不知所措時,它很快就提出了諸如愛好之類的解決方案。
Earkick 的聯合創始人兼營運長 Karin Stephan 表示,該應用程式並不是試圖與人類競爭,而是希望以一種讓人們更有可能接受幫助的方式為他們提供服務。
機器人和人類如何協同工作
大多數治療師都認為人工智慧應用程式可以成為一個人心理健康之旅的理想第一步。問題在於,當它們被視為唯一的解決方案時。雖然像史密斯和劉易斯這樣的人擁有現有的人類支援系統,但當有人完全依賴人工智慧聊天機器人時,後果可能是可怕的。去年,一名比利時男子在聊天機器人的慫恿下自殺了。同樣,國家飲食失調協會(NEDA)暫停了飲食失調聊天機器人 Tessa,因為它正在提供有害的節食建議。
幫助開發Tessa 的心理學家兼教授艾倫·菲茨西蒙斯·克拉夫特(Ellen Fitzsimmons-Craft) 同意人工智慧工具可以讓心理健康護理的想法變得不那麼可怕,但他補充說,它們必須確保安全、遵守高標準並受到監管。她說,就像 ChatGPT 一樣,他們不應該在整個網路上接受培訓,因為網路上有許多不好的建議。研究發現,人工智慧聊天機器人不僅會重複種族主義醫學比喻,而且在應用於美國黑人等群體時也無法完全發揮作用。
提供免費心理健康資源和同儕支持的 Koko Cares 聯合創始人 Rob Morris 表示,在科技公司克服這些擔憂之前,人工智慧近期最好的用例將是用於保險和計費等行政目的,最終讓治療師能夠花更多時間與客戶相處。
當 Koko 添加與 ChatGPT 共同編寫訊息的功能時,它遭到了公眾的憤怒,並且不得不撤回。當提供人工智慧循環選項時,大多數用戶更喜歡嚴格的人類體驗並選擇退出。在過去六個月中,超過 2,000,000 人使用了 Koko。
「陷入困境的人不是需要解決的問題,」劉易斯說,「他們是需要被看到、聽到和照顧的複雜的人。就這麼簡單。