美國猶他州讓 AI 續開精神科藥物:19 美元、無需醫師,全美首例實驗引發爭議

美國猶他州批准 AI 聊天機器人自動為患者續開精神科藥物,全程無需醫師介入,月費僅 19 美元。這是全球第一個將精神科處方權授予 AI 的試驗,但醫師與專家對資安漏洞和臨床判斷缺失提出強烈質疑。猶他州正在替全世界進行這個實驗。

美國猶他州讓 AI 續開精神科藥物:19 美元、無需醫師,全美首例實驗引發爭議

美國的心理衛生醫療缺口長期存在,光是猶他州就有高達 50 萬名居民無法獲得穩定的精神科照護。2026 年 4 月,猶他州政府宣布一項前所未有的試驗:允許 AI 聊天機器人在沒有醫師介入的情況下,為患者自動續開精神科藥物。


猶他州 AI 開藥試驗,核心是什麼

猶他州商業部於 2026 年 4 月正式核准新創公司 Legion Health 進行為期一年的試驗,讓其 AI 聊天機器人為符合條件的患者自動續開精神科藥物,全程無需醫師審核。

Legion Health 是一家由 Y Combinator 支持、成立於 2021 年的舊金山新創,由三位普林斯頓大學室友共同創辦。根據 DistilINFO 的報導,這是全球第一個專注精神科維持用藥、由 AI 自動續開處方的州級試驗、讓 AI 直接執行精神科處方的心理衛生計畫。使用費用為每月約 19–20 美元,患者透過 App 完成身份驗證後,AI 會詢問目前用藥、症狀變化與病史,確認無誤後直接將處方傳送至藥局,每次續藥另收 4 美元手續費。


這個 AI 能做什麼、不能做什麼

AI 的處方權範圍被刻意限縮,以降低風險。Winbuzzer 的報導整理出這套系統的明確邊界:

AI 可以處理的情況:僅限為已由人類醫師處方過的低風險精神科維持用藥續開,包含 SSRI 抗憂鬱劑(如 Wellbutrin、trazodone、mirtazapine)等常見藥物,適用對象為過去一年內藥物穩定、無住院紀錄的患者。

AI 不能處理的情況:初診開藥、調整劑量、開立管制藥物(如 Adderall)、抗精神病藥物、鋰鹽,或任何病情不穩定的個案。若系統判定不符合條件,會提供一組免費視訊看診的折扣碼,轉介給真人醫師。

人工監督機制同樣存在。Gizmodo 指出,前 250 筆處方必須由執照醫師全程審查,系統需達到 98% 的核准一致率才能進入下一階段;之後仍有持續抽查機制,並設有人工升級的安全旗標。


為什麼猶他州願意這樣做

猶他州批准這項試驗的邏輯很直接:沒有足夠的精神科醫師。Startup Fortune 引述猶他州商業部的說法,全州多數縣市都被列為心理衛生服務「嚴重短缺區域」,影響人數多達 50 萬人。一個穩定服藥、只需要常規續藥的憂鬱症或焦慮症患者,可能需要等待數週才能預約到精神科門診,而這段等待期本身就可能造成病情惡化。

對州政府而言,AI 自動續藥代表的是:讓有限的醫療資源集中在真正需要臨床判斷的複雜個案,把常規性的行政工作交給系統處理。Legion Health 共同創辦人 Arthur MacWaters 表示,若猶他州試驗成功,他預計「2026 年內將有十幾個州跟進核准類似方案」。


醫師與專家的疑慮

這項試驗在醫療界引發的反彈同樣強烈。TechBuzz AI 引述一位精神科醫師對 The Verge 的說法:「這根本上是在問,我們是否信任演算法來做出影響人生的臨床決策。」

批評者指出幾個核心問題。第一,精神科用藥需要細膩的臨床判斷,同一種藥在不同患者身上的反應差異極大,單純問卷無法取代面對面評估。第二,系統透明度不足,患者無法得知 AI 如何做出決定。第三,NowadAIs 的分析提到,另一個已核准試驗的 AI 系統 Doctronic 曾被研究人員透過提示注入攻擊成功操控,顯示 AI 處方系統在資安層面仍有待驗證。


AI 開藥:各方立場對比

面向支持方論點反對方論點
醫療可近性解決 50 萬人無法獲得精神科服務的缺口只能服務已穩定用藥者,無法幫助最需要醫療的人
安全性限縮在低風險藥物、有人工審查機制精神科用藥需個別化判斷,問卷無法取代臨床評估
成本每月 19 美元遠低於傳統看診費用若出錯造成患者傷害,責任歸屬不明
擴張性若成功可快速複製到其他州過快擴張前尚無足夠的長期安全數據
資安Legion 已建立偏見偵測與審計框架同類系統已被證實可被提示注入攻擊操控

這件事對台灣的意義

台灣同樣面臨精神科醫師嚴重不足的問題,偏鄉地區的心理衛生服務缺口尤為明顯。猶他州的試驗結果,將成為全球各地衛生主管機關評估是否跟進的重要參考依據。

Association of Health Care Journalists 指出,Legion Health 目前正與德州、亞利桑那州、密蘇里州等地的監管機構進行討論。若一年試驗期後數據良好,AI 輔助處方的合法化可能在 2027 年前迅速蔓延至更多地區。

對普通用戶而言,現在最重要的一個問題是:當 AI 的角色從「輔助醫師」變成「取代醫師」,我們願意把多少臨床判斷權交給演算法?猶他州正在替全世界進行這個實驗。


想每週掌握最新 AI 工具與趨勢?訂閱 AI 郵報,每週精選重點直送信箱,讓你不錯過任何重要動態。


資料來源

Read more

Anthropic 最新研究:Claude 擁有「功能性情緒」,影響 AI 行為與安全

Anthropic 最新研究:Claude 擁有「功能性情緒」,影響 AI 行為與安全

Anthropic 可解釋性(Interpretability)研究團隊於 2026 年 4 月 2 日發表重磅論文《Emotion Concepts and Their Function in a Large Language Model》,首度揭示 AI 大型語言模型 Claude Sonnet 4.5 內部存在類似人類情緒的神經表徵,且這些表徵會直接影響模型的行為與決策。 這項研究是目前為止最直接的證據,說明 AI 模型中的「情緒表徵」並非單純比喻或無關痛癢的現象,而是具有因果力量(causal influence)的功能性機制。