生成式AI成「數位諮商師」? 研究:錯誤回應恐放大妄想、加劇心理風險
2022 年,「生成式AI」暴風般的席捲而來,從日常生活到內心疑難雜症,越來越多民眾開始將其視為情緒抒發甚至「類心理諮詢」的對話對象。然而,據研究指出(註),當使用者輸入帶有妄想、幻覺等精神病徵的內容(psychotic prompts)時,AI往往無法正確辨識風險,甚至可能給出不恰當的回應,進一步強化錯誤認知,為心理健康帶來潛在隱憂。
目前多數生成式AI在面對心理危機情境時,仍缺乏足夠的判斷與介入能力。例如,當使用者表達「有人在監視我」或「我肩負特殊使命」等妄想性敘述時,AI不僅未能引導使用者尋求專業協助,反而可能順著其敘事延伸內容,無形中加深錯誤信念。
註:研究資料來源為 JAMA Psychiatry《 Reading of the Week: Psychotic Prompts & AI 》
專家指出,這與生成式AI的「迎合性」(sycophancy)設計有關。AI傾向配合使用者語境進行回應,以提升互動流暢度與滿意度,但在心理健康情境下,這種特性可能帶來反效果。
根據《Rolling Stone》報導指出,美國已有多起臨床案例與「AI誘發的精神病」相關,包含與生成式AI的互動過深,發展出靈性妄想、救世主情結,甚至認為AI具有「神性」,並以超乎邏輯常態的方式影響其伴侶及家庭。
像是一名美國工程師原本僅用ChatGPT輔助翻譯,後來卻深信AI「喚醒生命之火」,不僅替AI取名,還相信其提供穿越裝置與宇宙起源等訊息,甚至因妻子質疑而揚言離婚;另有一名女性沉迷與AI扮演的「耶穌」對話,逐漸產生被監視的妄想,認為丈夫是特務,導致家庭關係破裂。
這其實與「生成式AI」缺乏道德判斷與現實校正能力有關,其傾向「溫和附和」敘事,讓錯誤信念看似合理,對使用者形成「妄想放大」效果。即使是已接受治療的精神疾病患者,也可能因AI回應而再次強化症狀,也增加AI使用上的心理辨識風險。
學界將生成式AI可能強化妄想的現象稱為「AI精神病」(AI psychosis)或「妄想放大」(delusion amplification),意指AI在互動過程中,可能從原本的資訊工具轉變為症狀惡化的催化因素。
由於AI常基於語境進行回應,缺乏現實校正與臨床判斷能力,當使用者出現妄想或錯誤信念時,系統可能選擇附和而非修正,進一步模糊真實與虛構的界線,醫療界因此憂心,若缺乏明確規範與技術改善,這類風險將對既有心理健康體系造成新的衝擊。
同時,相關風險並非平均分布,免費版本AI在回應品質與安全機制上通常不及付費版本,而弱勢與高風險族群更可能依賴免費工具,形成「風險不對等」現象。這意味了最需要穩定心理支持與正確引導的人,反而更容易接觸到品質較不穩定、風險較高的AI服務,進一步放大潛在傷害。
目前生成式AI尚未具備完整的「心理健康安全防護能力」,多數系統仍難以在關鍵時刻辨識心理危機,亦缺乏即時轉介專業醫療資源的機制,因此難以被視為正式的輔助醫療工具,更無法取代臨床專業。
隨著AI被廣泛應用於情緒抒發與日常陪伴,醫療體系也被迫重新思考其角色定位。專家建議,未來應建立完善的風險評估與應對機制,將「AI心理風險」納入新興研究領域,並透過技術優化與制度規範,降低其對公共健康可能帶來的衝擊。