OpenAI 推出 ChatGPT Trusted Contact 安全功能
OpenAI 在 5 月 7 日推出 ChatGPT Trusted Contact,成人使用者可預先指定一位信任聯絡人。當系統與人工審查判定對話出現嚴重自傷風險時,ChatGPT 可發出有限通知,協助使用者連結現實世界支援。
OpenAI 在 2026 年 5 月 7 日宣布推出 ChatGPT Trusted Contact,這是一項可選的安全功能,讓成人使用者能預先指定一位信任聯絡人。根據 OpenAI 官方公告,若系統與受訓人工審查人員判定使用者對話中可能出現嚴重自傷風險,ChatGPT 可通知該聯絡人協助關心。
這則新聞的重要性,在於 AI 安全正在從「模型拒答有害內容」走向「產品如何連結現實世界支援」。Trusted Contact 不是醫療服務,也不是緊急救援系統,但它顯示 OpenAI 正嘗試把 ChatGPT 的高風險對話處理,從單純提示危機專線,擴展到預先授權的人際支援機制。
OpenAI 推出成人使用者可選的 Trusted Contact
ChatGPT Trusted Contact 是一項可選功能,使用者必須主動設定才會啟用。OpenAI 表示,成人使用者可在 ChatGPT 設定中新增一位成年人作為 Trusted Contact,例如朋友、家人或照顧者;在韓國,受邀者年齡門檻為 19 歲以上。
這位信任聯絡人不會自動生效。OpenAI 說明,受邀者會收到邀請並了解自己的角色,必須在一週內接受邀請,功能才會啟用;若對方拒絕或逾期,使用者可選擇新增其他人。使用者也能隨時在設定中移除或更換 Trusted Contact,受邀者同樣可以退出。
TechCrunch 報導指出,這項功能推出的背景,是 OpenAI 近年面臨越來越多與 ChatGPT 安全、心理健康與自傷風險相關的外部壓力。這也讓 Trusted Contact 不只是一個產品設定,而是 OpenAI 面對高風險使用情境時的責任邊界測試。
這次功能和 OpenAI 開源 gpt-oss-safeguard 安全推理模型指向同一個方向:AI 公司正在把安全機制從「事後補救」推向「更細緻的前置判斷」。差別在於,gpt-oss-safeguard 聚焦內容審核與政策推理,Trusted Contact 則直接進入使用者關係與危機支援場景。
Trusted Contact 的運作方式
Trusted Contact 的核心流程,是先由自動系統偵測高風險訊號,再由受訓人工審查人員確認是否需要通知。OpenAI 官方公告指出,當 ChatGPT 偵測到使用者可能正在談論自傷,且情況可能構成嚴重安全疑慮時,系統會先提醒使用者,並鼓勵使用者主動聯絡 Trusted Contact。
如果狀況仍被判定需要進一步處理,OpenAI 會交由一小組受過特殊訓練的人員審查。若審查人員認為對話可能代表嚴重安全疑慮,Trusted Contact 才會收到通知。
| 流程階段 | 具體做法 | 目的 |
|---|---|---|
| 使用者設定 | 成人使用者主動新增一位信任聯絡人 | 保留使用者自主權與事前同意 |
| 聯絡人接受 | 受邀者需在一週內接受邀請 | 確認對方理解角色並願意承擔通知責任 |
| 系統偵測 | 自動系統判斷是否出現嚴重自傷風險 | 及早辨識高風險對話 |
| 使用者提示 | ChatGPT 鼓勵使用者主動聯絡信任對象 | 優先促進使用者自行求助 |
| 人工審查 | 受訓團隊確認是否需要發出通知 | 降低誤報與過度介入 |
| 有限通知 | 以 email、簡訊或 app 通知信任聯絡人 | 讓現實世界的人能及時關心 |
OpenAI 強調,通知內容會受到限制。Trusted Contact 不會收到完整聊天紀錄或逐字稿,只會收到簡短提醒,說明有安全疑慮並鼓勵對方主動關心。這個設計很關鍵,因為它試圖在兩個目標之間取得平衡:一方面要讓高風險使用者獲得現實支援,另一方面要避免把敏感對話內容直接交給第三方。
這項功能的核心難題是安全與隱私平衡
Trusted Contact 最大的產品挑戰,是如何在保護使用者安全與維持使用者隱私之間取得合理邊界。自傷風險是高敏感場景,如果 AI 系統完全不介入,可能錯失現實支援;但如果通知機制過度積極,也可能造成使用者被誤解、被打擾,甚至對 ChatGPT 失去信任。
OpenAI 在公告中寫明,Trusted Contact 不取代專業照護或危機服務,ChatGPT 仍會在適當情況下鼓勵使用者聯絡危機專線、緊急服務、心理健康專業人員或現實生活中的可信任對象。換句話說,Trusted Contact 是多層防護中的一層,不是完整醫療或危機處理方案。
這也讓 ChatGPT 的安全設計更接近一個產品治理問題,而不是單純的模型能力問題。過去談 AI 安全,常聚焦模型是否拒絕有害指令;但在真實世界裡,使用者可能不是直接要求有害資訊,而是在長時間對話中透露出情緒困境、孤立感或自傷念頭。這類情境需要的是更細緻的偵測、升級、人工審查與外部支援流程。
ChatGPT 成人模式被 OpenAI 喊卡的案例也說明,同一個產品在不同使用情境下會牽涉完全不同的風險。成人內容、心理健康、自傷風險、未成年人保護與隱私權,看似是不同議題,但背後共同問題是:當 AI 進入更私密、更長時間的對話關係,平台必須重新定義哪些情境需要介入。
OpenAI 為什麼現在需要這項功能
OpenAI 此時推出 Trusted Contact,與 ChatGPT 使用規模擴大後的安全壓力直接相關。The Verge 報導指出,這項功能延續了 OpenAI 先前對青少年帳號推出的家長安全通知,也反映 AI 公司正面對聊天機器人與心理健康風險之間的更高社會期待。
TechCrunch 則提到,OpenAI 近年面臨多起與使用者自傷或心理危機相關的訴訟與質疑。這些外部壓力讓 AI 公司必須回答一個更困難的問題:當使用者把 AI 當成情緒出口、陪伴者或長期對話對象時,平台究竟該在什麼條件下介入?

Image Credits: The Verge
| 安全機制 | 主要處理方式 | 優點 | 限制 |
|---|---|---|---|
| 危機專線提示 | 在高風險對話中提供求助資源 | 快速、低侵入、可全球在地化 | 使用者不一定會主動求助 |
| 模型拒答 | 拒絕提供自傷方法或有害指令 | 可降低直接傷害資訊輸出 | 對情緒支持與危機連結有限 |
| 家長通知 | 針對連結的青少年帳號通知家長 | 適合未成年人保護場景 | 不適用成人自主帳號 |
| Trusted Contact | 成人使用者預先指定可信任對象 | 結合使用者自主權與現實支援 | 依賴事前設定、人工審查與通知判斷 |
Trusted Contact 仍有明顯限制
Trusted Contact 的限制很清楚:它必須由使用者主動設定,且信任聯絡人必須接受邀請才會生效。若使用者沒有設定,或在危機發生前沒有完成邀請流程,這項功能就無法發揮作用。
另一個限制是,人工審查與通知判斷不可能完美。OpenAI 也承認,安全通知不一定能完全反映使用者真實狀態;通知太少可能錯過風險,通知太多則可能造成誤報與隱私壓力。OpenAI 表示會努力在一小時內審查這類安全通知,但實務上仍取決於偵測準確度、審查品質與不同地區的支援流程。
後續值得觀察的方向包括:
- 使用者是否願意設定 Trusted Contact:這類功能的有效性,很大程度取決於事前採用率。
- 通知機制是否能避免過度揭露:OpenAI 目前不提供聊天細節,這是重要隱私邊界。
- 人工審查能否穩定擴張:ChatGPT 使用規模很大,高風險通報流程需要可持續的人力與品質控管。
- 監管是否會要求類似機制成為標配:若各國開始規範 AI 心理健康風險,Trusted Contact 可能成為其他平台參考的範本。
從產品角度看,Trusted Contact 代表 ChatGPT 正逐步承認自己不是普通搜尋框,而是一個可能被使用者用來談論脆弱、危機與私密問題的系統。這也讓 AI 安全從模型評測、內容政策,進一步擴展到人際關係、通知邊界與現實支援。對 OpenAI 而言,這是必要但很難的產品治理題;對整個 AI 產業而言,這可能會成為高風險對話產品的基本安全方向。
想每週掌握最新 AI 工具與趨勢?訂閱 AI 郵報,每週精選重點直送信箱,讓你不錯過任何重要動態。