【資策會科法所專欄】歐洲心理健康組織發表人工智慧應用於心理健康照護之研究

【資策會科法所專欄】歐洲心理健康組織發表人工智慧應用於心理健康照護之研究
2025/06/02

文/焦汝安 資策會科技法律研究所法律研究員

歐洲心理健康組織(Mental Health Europe)於2025年2月7日發表《人工智慧(AI)應用於心理健康照護》(Artificial Intelligence in mental healthcare)研究報告,本研究聚焦心理健康照護中使用AI系統的機會、風險和道德考量研究,並提供如何負責任的實施與監管之建議,同時評估近期歐盟所通過的《人工智慧法》(Artificial Intelligence Act, AIA)是否可為心理健康照護領域提供監管基礎,探討政策制定者應如何填補其潛在漏洞。

報告中表示AI工具的開發應考量倫理性、準確性、安全性,真正關注終端使用者需求,其解決方法包括嚴格的監管與監督、透明度與可解釋性,以及以「人權」為核心的共同創造(co-creation)的方法,尤其關注AI訓練模型之資料與可能生成錯誤或誤導性資訊,可能加劇社會對其不平等或偏見之風險。以下簡述該報告的重點,包含AI應用於心理健康照護之服務類型概述、機會、風險及監管建議風險等研析結果。

AI使用於心理健康照護的應用概述

目前國際間心理健康之AI應用軟體,依其目的、內容及範例可分類如表1、表2所示,主要分為對於使用者提供服務與心理健康專業人士應用。 

1、提供使用者之AI應用服務

   

AI應用

   

數位療法

數位表型分析(Digital Phenotyping):AI透過數位設備(如智慧型手機與穿戴式裝置)分析行為模式,以識別與心理健康狀態相關的特徵(如憂鬱、焦慮)。

MindLAMP2

聊天機器人(Chatbots):互動式 AI 工具,模擬治療對話,提供心理健康建議,並引導使用者獲取社會服務與支援。

WoebotWysa

個人化醫療

個人化治療計畫:AI 整合遺傳、環境與行為資料,為個別使用者量身打造治療計畫。

IBM Watson Health

患者監測與控制

  • AI 追蹤個人健康或危機資料(如預測自殺或精神病發作的風險)。
  • 監測藥物依從性,標記停止服藥的患者。

Facebook/Meta AI自殺警示系統

健康資訊系統

AI 幫助使用者瀏覽醫療系統,包括:管理個人健康紀錄、協助填寫表單與申請社會服務。

MyChart

教育與資訊分享

AI 透過應用程式或聊天機器人提升心理健康知識,傳播正確資訊並減少汙名化。

Ada Health

資料來源:資策會科法所整理(2025.05) 

2、提供心理健康專業人士之應用

   

AI應用

   

數位療法

一些 AI 工具(如數位表型分析、聊天機器人)可由專業人士推薦或納入治療計畫。

MindLAMP2WoebotWysa

專業決策支持

AI 協助心理健康專業人士進行決策,提供資料分析或自動觸發行動。

Tempus

患者與群體監測

  • AI分析資料以識別高風險個體或族群(如預防自殺)。
  • 透過行政資料或穿戴式裝置監測社區心理健康趨勢。

Crisis Text LineBabylon Health

法律與行政支援

AI 協助專業人士處理法規遵循、報告撰寫與系統性健康分析。

DocuSign

資訊共享與行政管理

  • 管理電子健康紀錄(EHR)。
  • 支援臨床編碼與預約安排。

Epic SystemsZocdoc

溝通工具

  • 促進服務相關溝通,例如根據專業領域、地點等因素將患者與專家配對。
  • 以淺顯易懂的語言解釋醫療資訊。

MOSTModerated Online Social Therapy)、Galaxy AI's Medical Language Simplifier

資料來源:資策會科法所整理(2025.05)

 

目前AI應用於心理健康領域的優點和實際功效仍屬於實驗階段,相關證據或治療資料有限,AI可能提供的服務與機會發展較佳,如針對提供心理醫師(或心理健康專業人士)與需要者相關服務,提升心理健康服務的可及性、減少行政成本;而臨床方面則有機會可透過AI應用發展個人化治療方案、即時支援與危機預測、提高診斷準確性及開發新型治療方式等。

針對AI應用於心理健康照護之風險與建議措施

由於AI技術刻正發展中,而歐盟人工智慧法(AIA)主要將AI系統劃分為4種風險類別,包括:不可接受風險(Unacceptable risk)、高風險、透明度風險(Transparency risk)、低風險(Minimal to no risk),其中與生醫領域相關之禁止AI介入之應用,包括:利用生物特徵推測個人的種族、政治觀點、宗教信仰、性取向等,並且禁止即時遠端生物辨識(real-time biometric identification, RBI),也禁止在工作場所或學校使用AI來識別情緒,但與醫療和安全用途相關則可除外。

AIA亦將AI應用於健康照護領域歸類於高風險應用,包括在醫療器材中應用AI技術、使用於生物特徵識別的AI、判定是否可獲取健康照護等服務的AI系統、任何形式的個人資料自動處理、出於醫療或安全原因的情緒識別等。歐洲心理健康組織於研究報告中提出以下幾項重要風險:

  • 安全風險:AI可能生成錯誤或誤導性資訊,如無法理解特定情境而產生有害的建議或決策,或是使用帶有偏見的訓練資料,導致誤診或歧視性結果;AI也可能誤判心理健康狀況,如錯誤標記自殺風險或標記無危機個案為高風險,或未能識別真正需要幫助的患者。
  • 隱私風險:資料洩露與未經授權的存取;與第三方共享資料的風險。
  • 缺乏知情同意:可能因不了解AI資料處理方法而無法落實知情同意,AI應透過更透明的資訊提供機制改善其流程。
  • 出現新的不平等或加劇不平等:偏見資料導致不公平結果,AI若基於不具代表性的資料訓練,可能導致部分族群被錯誤診斷或獲得不適當的治療。
  • 照護的去人性化:缺乏情感與同理心,如削弱心理治療的人際關懷、降低醫病信任關係,過度依賴AI也可能導致專業人士的同理心下降。
  • 監視風險:AI可能被用於監控心理健康資料,如AI可能將自殺風險分析提供執法機構,導致過度介入或錯誤執法。

針對上述較高之AI應用風險,亦提出建議措施,針對AI技術開發者,建議應有心理健康經驗的群體參與AI的開發過程,如共同設計AI系統、決策過程透明化、優先賦權並確保多元性等方式,這些具有心理健康治療經驗的人,應作為數位化與心理健康所有決策與討論的核心角色,確保在技術創新過程中擁有平等的發言權。

而給予政策制定者的建議,則應特別針對AI風險進行監管與保護措施,如安全風險、隱私風險、知情同意不足。其中可能需要預先預防AI可能加劇的偏見與不平等,如訓練資料應包含多元族群,減少資料偏見和提高AI對所有族群的準確性。並針對AI監視風險,如確保使用者可選擇加入或推出AI監測,並限制AI監測的心理健康資料被執法機關、移民局或其他政府機構濫用等。

觀測小結

由於AI應用尚在起步階段,各國對其風險評估與監管框架仍在調整中。目前有關AI開發於心理健康的軟體仍以國外發展較多,國內尚無相關的數位治療軟體,惟目前國內開發與神經或腦部退化疾病有關的智慧醫療器材軟體(Software as a Medical Device, SaMD),如壓力性精神疾病、兒童如自閉症或過動症等相關治療,或老年失智症、巴金森氏症等疾病之延緩與復建治療,可能同樣面臨AI應用之風險,本報告相關建議措施及風險評估應可供我國政策制定者與開發軟體業者作為參採之建議。



參考資料:

  1. European Commission, Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act. (Feb, 4 2025) https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act (last visited Feb, 7th 2025)
  2. Mental Health Europe, Mental Health Europe launches a study on Artificial Intelligence in mental healthcare (Feb 7,2025) https://www.mentalhealtheurope.org/mental-health-europe-launches-a-study-on-artificial-intelligence-in-mental-healthcare/
  3. Mental Health Europe, Artificial Intelligence in mental healthcare (Dec 2024) https://www.mentalhealtheurope.org/wp-content/uploads/2025/02/Study-on-AI-in-mental-health-care-final-for-publication.pdf 
  4. Mobi health news, EU issues guidelines on banned AI practice (Feb, 6th 2025) https://www.mobihealthnews.com/news/eu-issues-guidelines-banned-ai-practices

(專欄反映作者意見,不代表雜誌立場)

喜歡這篇文章嗎?加入會員即可收藏文章、產品及供應商