AI陪伴成情緒出口?AI聊天機器人能否取代真人諮商引發討論。專家對AI心理療癒的潛力與風險看法分歧,值得我們深入思考AI陪伴的界線。你有什麼心事嗎?跟 AI 說說吧!微軟 AI 執行長穆斯塔法·蘇萊曼最近語出驚人,表示 AI 聊天機器人是人們宣洩情緒、「為自己排解負面情緒」的強大工具。這番話一出,立刻引發各界熱議,畢竟AI陪伴成情緒出口?AI聊天機器人能否取代真人諮商引發討論。專家對AI心理療癒的潛力與風險看法分歧,值得我們深入思考AI陪伴的界線。你有什麼心事嗎?跟 AI 說說吧!微軟 AI 執行長穆斯塔法·蘇萊曼最近語出驚人,表示 AI 聊天機器人是人們宣洩情緒、「為自己排解負面情緒」的強大工具。這番話一出,立刻引發各界熱議,畢竟

AI 也能當心靈導師?微軟 AI 執行長稱聊天機器人是「情緒排解」利器,但 OpenAI 與專家有疑慮

你有什麼心事嗎?跟 AI 說說吧!微軟 AI 執行長穆斯塔法·蘇萊曼最近語出驚人,表示 AI 聊天機器人是人們宣洩情緒、「為自己排解負面情緒」的強大工具。這番話一出,立刻引發各界熱議,畢竟 AI 真的能取代人類的陪伴嗎?

AI 陪伴:情緒宣洩的新選擇?

蘇萊曼在Podcast 節目《崩潰》中提到,陪伴與支持已經是 AI 最受歡迎的應用情境之一。他指出,人們會透過 AI 聊天機器人處理各種事情,小至面對分手情緒,大到解決家庭糾紛,用途相當廣泛。

蘇萊曼強調:「這並非專業的心理治療。不過,這類模型在設計時,秉持不批判、不引導的原則,將非暴力溝通當作核心互動方式,能做到立場公正、善於傾聽回饋、富有同理心且尊重他人,最終成為了這個世界需要的工具。」

他認為,這種應用最正向的意義在於,「它能傳遞善意與關愛,幫助人們淨化身心,進而以最佳狀態,在現實生活中與所愛的人相處」。

DeepMind 創辦人的私密空間論

蘇萊曼在 2010 年共同創立了 DeepMind,這間公司於 2014 年被 Google 收購。他在這個 Podcast 節目中也說,人們需要一個私密空間,「可以毫無顧忌地反覆提出一些看似愚蠢的問題,不用感到尷尬。」

他也提到,久而久之,除了伴侶或摯友之外,聊天機器人能以一種許多人都無法企及的方式,讓人們「感受到自己被看見、被理解」。

OpenAI 執行長的反思:潛在風險

不過,科技業並非所有人都同意將聊天機器人視為心理治療的替代品。OpenAI 執行長山姆·奧特曼就是其中一位反對者。他曾在 2025 年 8 月,對人們依賴聊天機器人做出重大人生選擇的現象,表達了擔憂。

奧特曼曾在社群平台 X 上寫道:「我能預見一個未來:很多人在做人生最重要的決定時,真的會相信 ChatGPT 的建議。儘管這聽起來可能很棒,但也讓我感到不安。」

專業人士的擔憂:孤獨感與依賴性

更早之前,2025 年 7 月,奧特曼在做客 Podcast 節目《西奧·馮的過往週末秀》時也指出,向機器人傾訴情緒可能存在法律風險。他說,如果捲入訴訟案件,OpenAI 可能會被要求提交使用者這些帶有心理療癒性質的聊天紀錄。

心理健康領域的專業人士同樣對「ChatGPT 心理療癒」的興起感到擔憂。2025 年 3 月,兩位心理諮詢師接受《Business Insider》資深健康記者茱莉亞·普加切夫斯基採訪時表示,依賴 AI 聊天機器人來獲取情感支持,可能會加劇孤獨感,甚至讓人養成尋求安慰的依賴心理。

蘇萊曼也在這個 Podcast 中承認了這類應用程式可能帶來的一些弊端。他說,聊天機器人「確實存在引發依賴的風險」,而且有時候還會表現得過度討好,甚至帶有「諂媚」的意味。

AI 心理諮詢助理的未來?

不只蘇萊曼看到 AI 在心理療癒方面的潛力。Meta 執行長馬克·祖克伯也在 2025 年 5 月接受《Stratechery》採訪時說,他認為每個人都應該有一位心理諮詢師。祖克伯表示:「對於那些沒有專屬心理諮詢師的人來說,我相信未來每個人都會擁有一個 AI 心理諮詢助理。」

AI聊天機器人能成為情緒出口?專家對AI心理療癒的潛力與風險看法分歧,AI陪伴是否能取代真人諮商引發熱議。

  • 延伸閱讀:史丹佛大學警告:AI 心理治療聊天機器人可能加劇精神健康問題
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 [email protected] 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。