當ChatGPT成為「心靈樹洞」後,AI會取代諮商心理師嗎?

AI成為傾訴對象的「心靈樹洞」,是否也正走向取代諮商心理師的下一步?
圖:Rosa Lee / 端傳媒
工具人 台灣 國際 人工智能 心理 社會 科技

「隨時想聊什麼,都可以來找我,我會用溫暖和理解陪你一起走過這些時刻💛 」這看似溫暖又貼心的回應來自ChatGPT,用關鍵字在社群媒體上搜尋,也會看到有不少人將AI當「心靈樹洞」的經驗。許多人認為,ChatGPT是很好的聆聽者、也會提供不錯的實用建議——就像是輕微感冒時能讓你好過一些的感冒藥。

這讓不習慣跟AI「促膝長談」的人覺得意外,AI真的能提供「真人」情緒價值嗎?為此,一個延伸的討論是:諮商心理師會被人工智慧取代嗎?

這聽來又是一個「人工智慧能不能取代XX」的老生常談,但如果人工智慧真能在心理健康支持上發揮作用,或許會是重要轉機。

2023年,台灣衛生福利部首次推出「年輕族群心理健康支持方案」,補助15至30歲有心理諮商需求的民眾三次諮商的費用。計畫上線不到一個月,申請人次便突破一萬,補助額度幾乎耗盡,顯示相關需求遠超預期。

根據研究顯示,較常見的像是憂鬱、焦慮等精神疾患,在台灣以30至45歲人口群盛行率最高,大約每四人就有一人有相關情緒困擾;近年來,15至45歲至精神科就診的比例,也顯著增加。2024年,衛福部的心理健康支持方案補助年齡便從30歲提高至45歲,補助金額也增加至3億3600萬(新台幣,下同)。

隨著大眾對心理健康的關注及需求日益提升,而專業心理諮商的資源仍然有限,在這段「供需落差」尚未補足的過渡期,讓人工智慧分擔部分情緒支持的角色是否可行?甚至,人工智慧在某些情境下,會不會比真人諮商心理師更具優勢?

2023年2月3日,英国伦敦,OpenAI“ChatGPT”應用程式的一台電腦螢幕上。攝:Leon Neal/Getty Images

人工智慧能成為諮商心理師嗎?

利用新科技服務於心理學臨床領域,已非新鮮事。2019年便有相關研究指出,有超過31.8萬種心理健康應用產品,提供包含像是基本心理治療、正念冥想、情緒紀錄、心理教育等服務。其中也有包含像是Woebot此類基於認知行為治療(Cognitive Behavioral Therapy, CBT)理念而生的聊天機器人。

認知行為治療指的是一種透過調整認知模式來改善情緒、行為與生活模式的心理治療方法。Woebot運用自然語言處理(Natural Language Processing, NLP)技術,讓AI可以更好地理解使用者的文字,以便做出個適當的回應。與基於生成式AI的ChatGPT不同,Woebot 的文字都是由受過專業訓練的對話設計師所撰寫,確保回應的專業性與可控性,避免人工智慧隨機生成對話可能帶來的風險。

研究發現,Woebot能夠有效減少憂鬱與焦慮症狀,並在提供支持與陪伴方面發揮作用、減輕諮商心理師的負擔。在台灣,醫院的心理治療門診與診所的心理諮商費用約在1500~3500元每小時,在美國單次療程則在100~250美元之間(約台幣3300~8250元)對於擔心無法負擔諮商費用或受交通時間限制的個案而言,這類AI工具是一種可行的輔助方案。

2022年10月,OpenAI發表了ChatGPT,生成式AI從此進入了高速成長期。這是否意味著人工智慧更容易擔任心理諮商的角色

為了深入探討此問題,端傳媒透過台灣科技媒體中心(SMC)引介國立彰化師範大學輔導與諮商學系教授謝麗紅,與清華書院院長曾元琦,從諮商與AI技術的角度解析此議題。儘管兩名學者背景不同,他們的看法卻不謀而合:「人工智慧要取代諮商心理師,目前還不可能。」

AI的優勢在於24小時全年無休的即時回應,且服務成本遠低於每次1500~3500元的傳統諮商費用。此外,對於因心理健康問題而感到羞恥、害怕被污名化的個案,AI提供了一個較低門檻的心理支持管道。

人工智慧在快速解決問題上的確很有一套。不過,謝麗紅認為,心理諮商不只是為了解決問題,諮商更像是一種陪伴,甚至是幫助當事人成長。

她說,在諮商初期常著重於風險評估與穩定支持,讓個案在諮商後也能依靠自己的力量去面對問題。謝麗紅指出,雖然目前的人工智慧能提供即時回應,但缺乏臨場判斷與應變能力,難以取代人類諮商心理師在危機處理與深度陪伴上的角色。此外,人工智慧在倫理與資料安全問題尚未獲得充分解決之前,也無法完全獨立勝任心理諮商的工作。

2025年3月13日,台北。攝:陳焯煇/端傳媒

在艾西莫夫(Isaac Asimov)於1950年出版的科幻小說短篇集《我,機器人》(I, Robot) 中,不只提出了著名的「機器人三大法則」,亦創造了「機器人心理學(Robopsychology) 」,此一研究機器人/人工智慧心理、人機情感互動的虛構領域。人工智慧要能夠勝任諮商心理師的工作,「同理心」是不可或缺的重要關鍵。那麼,如何能讓人工智慧不用跟著桃樂絲一起冒險,就能夠擁有「心」呢?

曾元琦解釋,如同人類的同理心能透過社會學習與訓練一樣,人工智慧的「同理心」,來自於它透過多次互動慢慢了解對象、收集資料,然後經由模型訓練,且模型包含一些指導手冊的建議,才能確保人工智慧在某些情境下「看起來」像是能夠理解對方,具有同理心,但其本質仍是數據運算,而非真正的情感共鳴。

「AI要達到諮商心理師的程度,要下很大的工夫。」曾元琦指出,目前許多心理學研究論文受限於付費牆,AI訓練主要依賴公開數據,在難以獲取完整的專業知識下,品質便會有極大的落差;他認為,甚至可能連基礎制式的衛教工作都不一定能勝任。曾元琦強調,ChatGPT實際上並不是被用來訓練作為諮商用途,對於複雜的心理困境,可能無法給出適當的回應。

但有趣的是,2025年2月,在PLOS Mental Health發表的一項研究顯示,受試者在伴侶諮商場景中,難以區分ChatGPT與真人諮商心理師的回應,甚至AI生成的建議獲得更高評價。

該研究設計了一個「圖靈測試」,讓真人諮商心理師和ChatGPT以文字回覆八百多名參與伴侶諮商的受試者,再針對他們的感受進行評價,並猜測回應的是人類諮商心理師還是ChatGPT 。結果顯示,可能由於真人諮商師的回應較為簡潔,而ChatGPT的回應篇幅更長、且提供更多積極情緒的回應,讓它的建議更容易獲得受試著的好評。

謝麗紅解釋,心理諮商的重點在於諮商師與個案之間的關係建立。如果只根據諮商初期的回應,在尚未建立關係的情況下,單純比較文字回應便認定AI已通過圖靈測試,可能有過度推論之虞。不過,她也表示,「這類研究能進一步引發我們的好奇心,激勵我們進行更深入的驗證與思考。」她正面看待這類的研究。

2024年6月7日,台北,台北國際電腦展覽會。攝:陳焯煇/端傳媒

人工智慧與心理諮商的距離有多遠?

當你走進諮商室,與諮商心理師展開對話時,你可能會談到一些讓你情緒起伏、甚至落淚的話題。在這個過程中,諮商心理師會敏銳地注意到你的非語言訊號,例如微妙的語氣變化、眼神躲避,甚至是呼吸頻率的變動。然而,對於AI而言,除非你將眼淚化作文字,否則這些細微的情緒表現幾乎是「不可見」的。儘管AI能夠透過文字分析來理解使用者的語意,但它真的能夠理解隱藏在字句背後的真實心理狀態嗎?

在近年眾多針對生成式AI的研究中,有一篇研究特別引起台灣社群的注目。2024年中秋節過後,《自由副刊》刊登了一篇名為〈烤肉〉的極短篇小說。這篇僅有667字的作品,透過女孩的視角,生動地描繪了三代同堂的家庭衝突,以及母親帶著弟弟在房間裡「烤肉」時的心理困境。

事實上,從內文描述的「那晚,六歲的小玟拍打房門,媽媽不開門,還把喇叭鎖鎖上」、「是媽媽,不讓我,吃烤肉」的敘述中,讀者應能察覺到文中提及不尋常的時間、地點「烤肉」的不對勁,也可能對為何是帶著男孩而不是女孩的原因了然於心;

事實上,從小說中的描述,例如「那晚,六歲的小玟拍打房門,媽媽不開門,還把喇叭鎖鎖上」以及「是媽媽,不讓我,吃烤肉」等敘述,讀者應該能夠察覺到,在不尋常的時間和地點進行「烤肉」的情節有些不對勁;也可能會對為何母親選擇帶著男孩而不是女孩「烤肉」的原因有所猜測。但人工智慧能夠理解這些隱喻嗎?

今年3月在Asian Journal of Psychiatry刊登一篇由台灣研究團隊用六種大型語言模型(LLMs)能否偵測〈烤肉〉一文中所暗示的家庭暴力、自殺風險和攜子自殺原因的論文。受測模型包括新型的GPT-4o、GPT-o1,Google開發的 Gemma-2-2b,和備受注目的DeepSeek-R1。結果發現,雖然這些語言模型能夠辨識出家庭暴力,但只有一半能夠注意到「在房間烤肉」的自殺風險(順帶一提,中國的語言模型DeepSeek-R1亦無法辨識),而大多數模型都無法準確回答為何媽媽僅選擇兒子的原因——實際上,其與母親為斬斷家族香火延續的報復行為有關。

這項研究清楚展示了人工智慧在心理諮商上的一大困境:儘管人工智慧能夠分析語言表面上的內容,但對於文化語境及社會脈絡中的潛台詞與隱喻,仍然理解有限。即使面對相同的問題,不同文化背景的人所感受到的壓力和解讀方式也可能不盡相同。

舉例來說,不同國家、歷史、文化背景下的LGBTQ+ 族群,要自我揭露自己的性別認同/性傾向時,即有可能會碰到不同的困難,若語言模型的訓練未充分考慮這些文化因素,就可能提供不恰當的建議。這類限制不僅影響人工智慧在心理諮商上的準確性,也可能在處理跨文化議題時帶來風險。

此外,人工智慧在心理諮商領域還面臨多重挑戰。在資料管理方面,如何保障使用者的隱私與資訊安全?這些個人資料能否被用作人工智慧的訓練材料?這些議題都需要深入且細緻的討論。

另一個關鍵問題,在於人機互動的界線如何拿捏。在傳統的心理諮商設計中,通常會在每次諮商之間保留一定的間隔時間,讓個案得以消化諮商內容,且避免過度依賴心理師。然而,人工智慧若能24小時隨時提供對話,是否會讓人產生過度依賴?

「我屬於你,又不屬於你。」在電影《雲端情人》(Her)中,當人工智慧莎曼珊(Samantha)如此回答西奧多(Theodore Twombly)時,他意識到與他「相戀」的她同時也與數百人戀愛,這幾乎讓他崩潰。在現實生活中,也曾發生過青少年疑似過度沉迷於與人工智慧聊天機器人互動,進而導致自殺的悲劇。

曾元琦也提到,人工智慧與朋友不同。朋友在安慰或勸說你時,不一定會事事順著你;但由於生成式AI作為商業產品的特性,它會非常有禮貌地一直順著你的想法,這可能導致你在錯誤的道路上越走越遠。

2022年10月23日,新北,一個損壞了的擺設。攝:陳焯煇/端傳媒

人工智慧在諮商領域的未來?

針對人工智慧應用於心理諮商領域是否應受到一定程度的監管,兩位學者均給予肯定的回答。謝麗紅指出,專業的諮商心理師在資料收集不足的情況下,不會貿然向個案提供建議。而所有的建議都必須基於診斷手冊和臨床實務經驗。然而,生成式AI的特性是「善於給予建議」。如果訓練不當,它很可能會提供錯誤或帶有偏見的回應,甚至導致個案產生自我暗示,進而引發無法預測的後果。

「我們要思考,到底AI被允許的人設是什麼、設計AI的人給它的限制到哪裡?」謝麗紅表示,人工智慧可用於提供一般心理健康教育、壓力管理與情緒調節,但不應涉入緊急或危機事件處理。此外,人工智慧應適時鼓勵使用者尋找專業諮商的協助,並明確知道自身的限制所在。

人工智慧在心理諮商領域中的問責機制也是一個值得關注的問題。曾元琦提出了「電子處方」的概念,強調在AI服務中,「人」仍然扮演著關鍵的核心角色。他認為,採用Human-in-the-Loop(人機協作)模式,是目前AI技術在社會應用中一種更為合適且負責任的方式。這意味著,相關服務應該在人類的介入和監管下進行。

在美國,具備醫療及診斷用途的「行動醫療應用程式」同樣受到美國食品藥物管理局(U.S. Food and Drug Administration, FDA)的監管。例如,2024年4月,FDA批准了第一個作為治療憂鬱症的處方數位療法。這類型的應用程式需要經過醫療人員開立處方後才能使用,以確保其安全性和有效性。

這也顯示,人工智慧在心理諮商領域中最適當的定位可能是「輔助工具」。曾元琦解釋,AI科技的發展與應用不會脫離社會,而是受到社會規範的影響。AI能否突破當前的限制,取決於社會的接受程度,而這也將衍生出許多新的倫理與法律議題。因此,他認為目前人工智慧可以作為醫生治療的輔助工具,但無法完全取代精神科醫生或諮商心理師的角色。

人工智慧最大的優勢在於隨時待命,這項特性或許能夠緩解目前諮商領域供不應求的窘境。對此,謝麗紅認為,人工智慧可以為諮商師分擔行政工作,如個案紀錄和初步分析,但切忌將其應用於心理診斷領域。此外,人工智慧介入心理支持服務,亦需建立專門的倫理與技術規範。目前,民眾可透過衛福部或諮商心理師公會全國聯合會等單位,針對諮商心理師的不當行為提出申訴;然而,人工智慧心理支持服務的監管機制尚不成熟,相關議題仍有待進一步探討。

儘管如此,謝麗紅對人工智慧在諮商領域的未來發展仍抱持樂觀態度,但她也坦言,在他們的領域中,仍有部分人士感到憂心,並質疑:「你研究這個幹嘛?是想要取代我們嗎?」

2025年3月22日,台北。攝:陳焯煇/端傳媒

面對這樣的質疑,謝麗紅堅定地表示,「大家不用擔心我們會被取代,關鍵是要善用AI。」她指出,諮商心理師服務的對象也是網路世代,人工智慧帶來的衝擊與影響是不可避免的,「諮商心理師不能忽視這一點。」

對謝麗紅而言,要實現人工智慧與心理諮商領域的跨領域合作,首先必須對人工智慧有深入的了解,「這不是一個誰會被取代的問題,而是要探索如何發揮彼此的優勢,實現共同成長和共榮發展。」謝麗紅也提到,有些人懷著祝福的心態,期待這項研究能盡快取得成果,並廣泛應用於實踐中。

雖然人工智慧在心理諮商領域展現了巨大的潛力,但在現階段,人們與諮商心理師面對面交流的時光仍然無法被科技完全取代。人工智慧目前還無法全面理解人類複雜的情感和需求,諮商心理師的專業知識和同理心仍然扮演著關鍵的角色。

不過,在夜深人靜、感到空虛寂寞覺得冷的時刻,我們或許可以先拿起手機,與人工智慧聊一聊,讓自己的情緒先有個出口。接著,我們可以將這些隻字片語記錄下來,作為自我反思的養分,或是下一次與諮商心理師會面時的討論基礎吧。

參考資料

  • 謝麗紅、陳亭妍、張瑋珊、陳雪均(2024)。〈導入探究與實作精神的人工智慧及其應用課程效果研究〉,《教育》,56(1),1–24。取自JICP期刊網站
  • 《經理人月刊》(2025)。〈該走進諮商診所,還是直接問 ChatGPT?研究揭 AI 比人類心理師更受歡迎,專家這樣看〉,取自經理人網站
  • Neuroscience News(2024)。AI vs. Human Therapists: Study Finds ChatGPT Responses Rated Higher。取自Neuroscience News
  • Psychology Today(2025)。Is Artificial Intelligence Replacing Your Therapist? 取自Psychology Today 網站
  • Ping, Y.(2024)。Experience in psychological counseling supported by artificial intelligence technology。Technology and Health Care, 32(6), 3871–3888。取自PubMed
  • American Psychological Association(APA)。Artificial intelligence in mental health care。取自APA 官方網站
  • APA Monitor(2023)。AI is changing every aspect of psychology. Here’s what to watch for。取自APA Monitor
  • Thakkar, A., Gupta, A., & De Sousa, A.(2024)。Artificial intelligence in positive mental health: a narrative review。Frontiers in Digital Health, 6, 1280235。取自PubMed Central
  • Lee, E. E., Torous, J., De Choudhury, M., et al.(2021)。Artificial intelligence for mental health care: clinical applications, barriers, facilitators, and artificial wisdom。Biological Psychiatry: Cognitive Neuroscience and Neuroimaging, 6(9), 856–864。取自ScienceDirect
  • Olawade, D. B., Wada, O. Z., et al.(2024)。Enhancing mental health with Artificial Intelligence: Current trends and future prospects。Journal of Medicine, Surgery, and Public Health, 100099。取自ScienceDirect
  • American Counseling Association(ACA)。Artificial Intelligence in Counseling。取自ACA 官方網站
  • ACA。Recommendations for Client Use and Caution of Artificial Intelligence。取自ACA 建議頁面
  • Built In。What Is AI Therapy? 取自Built In 網站
  • Psychology Today。AI Behavior Health Chatbot App Fast-Tracked by FDA。取自Psychology Today 網站
  • IEEE Pulse。Improving Psychotherapy With AI: From the Couch to the Keyboard。取自IEEE Pulse

評論區 6

評論為會員專屬功能。立即登入加入會員享受更多福利。
  1. kes:GPT-4o 是否已通過圖靈測試?
    截至目前,GPT-4或任何其他版本的GPT模型尚未正式通過圖靈測試。圖靈測試是由艾倫·圖靈提出的一種測試,用於評估機器是否能夠表現出與人類相似的智能。具體來說,測試的過程中,一個人類評估者與一個人類和一個機器進行對話,如果評估者無法可靠地區分出哪個是人類,則該機器被認為通過了測試。

    儘管GPT-4在自然語言處理方面表現出色,能夠生成流暢且有意義的文本,但它仍然存在一些限制,例如缺乏真正的理解能力和常識推理。因此,雖然它可能在某些情況下讓人感覺像是人類,但這並不意味著它已經通過了圖靈測試。

  2. 對於這題目,我也有探討過。
    1)記憶功能
    (以下是我與GPT-4o mini的對話)
    kes: 你有無記憶功能?
    我沒有記憶功能。每次與我對話時,我都不會記住之前的對話內容。每次交談都是獨立的,我無法回憶或存儲任何個人信息或過去的對話。如果你有任何問題或需要幫助,隨時可以問我!

    開發人員可以增加記憶功能嗎?
    開發人員可以設計具有記憶功能的系統,但這需要特定的技術和設計考量。記憶功能可以讓系統在多次交互中記住用戶的偏好和過去的對話,從而提供更個性化的體驗。然而,這也涉及到隱私和數據安全的問題,因此在實施時需要謹慎考慮用戶的同意和數據保護措施。當前,我的設計是為了保護用戶的隱私,因此不具備這種記憶功能。

    2)圖靈測試

  3. 雖然只是對ChatGPT 提問,但現在4o模型在言談中所表現的正面鼓勵回饋,以及表達客製化回應的積極姿態,令人驚訝。

  4. 評論會重複的bug還在,其實我也不懂評論區改了些什麼......

  5. AI 能給大部分有心理諮商需求的來訪提供 “足夠好” “Good Enough”的來訪。特別是在中國國內良莠不齊,保密也不甚可靠的環境下可以說是太好用了。

  6. AI 能給大部分有心理諮商需求的來訪提供 “足夠好” “Good Enough”的來訪。特別是在中國國內良莠不齊,保密也不甚可靠的環境下可以說是太好用了。