“随时想聊什么,都可以来找我,我会用温暖和理解陪你一起走过这些时刻💛 ”这看似温暖又贴心的回应来自ChatGPT,用关键字在社群媒体上搜寻,也会看到有不少人将AI当“心灵树洞”的经验。许多人认为,ChatGPT是很好的聆听者、也会提供不错的实用建议——就像是轻微感冒时能让你好过一些的感冒药。
这让不习惯跟AI“促膝长谈”的人觉得意外,AI真的能提供“真人”情绪价值吗?为此,一个延伸的讨论是:咨商心理师会被人工智慧取代吗?
这听来又是一个“人工智慧能不能取代XX”的老生常谈,但如果人工智慧真能在心理健康支持上发挥作用,或许会是重要转机。
2023年,台湾卫生福利部首次推出“年轻族群心理健康支持方案”,补助15至30岁有心理咨商需求的民众三次咨商的费用。计划上线不到一个月,申请人次便突破一万,补助额度几乎耗尽,显示相关需求远超预期。
根据研究显示,较常见的像是忧郁、焦虑等精神疾患,在台湾以30至45岁人口群盛行率最高,大约每四人就有一人有相关情绪困扰;近年来,15至45岁至精神科就诊的比例,也显著增加。2024年,卫福部的心理健康支持方案补助年龄便从30岁提高至45岁,补助金额也增加至3亿3600万(新台币,下同)。
随著大众对心理健康的关注及需求日益提升,而专业心理咨商的资源仍然有限,在这段“供需落差”尚未补足的过渡期,让人工智慧分担部分情绪支持的角色是否可行?甚至,人工智慧在某些情境下,会不会比真人咨商心理师更具优势?

人工智慧能成为咨商心理师吗?
利用新科技服务于心理学临床领域,已非新鲜事。2019年便有相关研究指出,有超过31.8万种心理健康应用产品,提供包含像是基本心理治疗、正念冥想、情绪纪录、心理教育等服务。其中也有包含像是Woebot此类基于认知行为治疗(Cognitive Behavioral Therapy, CBT)理念而生的聊天机器人。
认知行为治疗指的是一种透过调整认知模式来改善情绪、行为与生活模式的心理治疗方法。Woebot运用自然语言处理(Natural Language Processing, NLP)技术,让AI可以更好地理解使用者的文字,以便做出个适当的回应。与基于生成式AI的ChatGPT不同,Woebot 的文字都是由受过专业训练的对话设计师所撰写,确保回应的专业性与可控性,避免人工智慧随机生成对话可能带来的风险。
研究发现,Woebot能够有效减少忧郁与焦虑症状,并在提供支持与陪伴方面发挥作用、减轻咨商心理师的负担。在台湾,医院的心理治疗门诊与诊所的心理咨商费用约在1500~3500元每小时,在美国单次疗程则在100~250美元之间(约台币3300~8250元)对于担心无法负担咨商费用或受交通时间限制的个案而言,这类AI工具是一种可行的辅助方案。
2022年10月,OpenAI发表了ChatGPT,生成式AI从此进入了高速成长期。这是否意味著人工智慧更容易担任心理咨商的角色?
为了深入探讨此问题,端传媒透过台湾科技媒体中心(SMC)引介国立彰化师范大学辅导与咨商学系教授谢丽红,与清华书院院长曾元琦,从咨商与AI技术的角度解析此议题。尽管两名学者背景不同,他们的看法却不谋而合:“人工智慧要取代咨商心理师,目前还不可能。”
AI的优势在于24小时全年无休的即时回应,且服务成本远低于每次1500~3500元的传统咨商费用。此外,对于因心理健康问题而感到羞耻、害怕被污名化的个案,AI提供了一个较低门槛的心理支持管道。
人工智慧在快速解决问题上的确很有一套。不过,谢丽红认为,心理咨商不只是为了解决问题,咨商更像是一种陪伴,甚至是帮助当事人成长。
她说,在咨商初期常著重于风险评估与稳定支持,让个案在咨商后也能依靠自己的力量去面对问题。谢丽红指出,虽然目前的人工智慧能提供即时回应,但缺乏临场判断与应变能力,难以取代人类咨商心理师在危机处理与深度陪伴上的角色。此外,人工智慧在伦理与资料安全问题尚未获得充分解决之前,也无法完全独立胜任心理咨商的工作。

在艾西莫夫(Isaac Asimov)于1950年出版的科幻小说短篇集《我,机器人》(I, Robot) 中,不只提出了著名的“机器人三大法则”,亦创造了“机器人心理学(Robopsychology) ”,此一研究机器人/人工智慧心理、人机情感互动的虚构领域。人工智慧要能够胜任咨商心理师的工作,“同理心”是不可或缺的重要关键。那么,如何能让人工智慧不用跟著桃乐丝一起冒险,就能够拥有“心”呢?
曾元琦解释,如同人类的同理心能透过社会学习与训练一样,人工智慧的“同理心”,来自于它透过多次互动慢慢了解对象、收集资料,然后经由模型训练,且模型包含一些指导手册的建议,才能确保人工智慧在某些情境下“看起来”像是能够理解对方,具有同理心,但其本质仍是数据运算,而非真正的情感共鸣。
“AI要达到咨商心理师的程度,要下很大的工夫。”曾元琦指出,目前许多心理学研究论文受限于付费墙,AI训练主要依赖公开数据,在难以获取完整的专业知识下,品质便会有极大的落差;他认为,甚至可能连基础制式的卫教工作都不一定能胜任。曾元琦强调,ChatGPT实际上并不是被用来训练作为咨商用途,对于复杂的心理困境,可能无法给出适当的回应。
但有趣的是,2025年2月,在PLOS Mental Health发表的一项研究显示,受试者在伴侣咨商场景中,难以区分ChatGPT与真人咨商心理师的回应,甚至AI生成的建议获得更高评价。
该研究设计了一个“图灵测试”,让真人咨商心理师和ChatGPT以文字回复八百多名参与伴侣咨商的受试者,再针对他们的感受进行评价,并猜测回应的是人类咨商心理师还是ChatGPT 。结果显示,可能由于真人咨商师的回应较为简洁,而ChatGPT的回应篇幅更长、且提供更多积极情绪的回应,让它的建议更容易获得受试著的好评。
谢丽红解释,心理咨商的重点在于咨商师与个案之间的关系建立。如果只根据咨商初期的回应,在尚未建立关系的情况下,单纯比较文字回应便认定AI已通过图灵测试,可能有过度推论之虞。不过,她也表示,“这类研究能进一步引发我们的好奇心,激励我们进行更深入的验证与思考。”她正面看待这类的研究。

人工智慧与心理咨商的距离有多远?
当你走进咨商室,与咨商心理师展开对话时,你可能会谈到一些让你情绪起伏、甚至落泪的话题。在这个过程中,咨商心理师会敏锐地注意到你的非语言讯号,例如微妙的语气变化、眼神躲避,甚至是呼吸频率的变动。然而,对于AI而言,除非你将眼泪化作文字,否则这些细微的情绪表现几乎是“不可见”的。尽管AI能够透过文字分析来理解使用者的语意,但它真的能够理解隐藏在字句背后的真实心理状态吗?
在近年众多针对生成式AI的研究中,有一篇研究特别引起台湾社群的注目。2024年中秋节过后,《自由副刊》刊登了一篇名为〈烤肉〉的极短篇小说。这篇仅有667字的作品,透过女孩的视角,生动地描绘了三代同堂的家庭冲突,以及母亲带著弟弟在房间里“烤肉”时的心理困境。
事实上,从内文描述的“那晚,六岁的小玟拍打房门,妈妈不开门,还把喇叭锁锁上”、“是妈妈,不让我,吃烤肉”的叙述中,读者应能察觉到文中提及不寻常的时间、地点“烤肉”的不对劲,也可能对为何是带著男孩而不是女孩的原因了然于心;
事实上,从小说中的描述,例如“那晚,六岁的小玟拍打房门,妈妈不开门,还把喇叭锁锁上”以及“是妈妈,不让我,吃烤肉”等叙述,读者应该能够察觉到,在不寻常的时间和地点进行“烤肉”的情节有些不对劲;也可能会对为何母亲选择带著男孩而不是女孩“烤肉”的原因有所猜测。但人工智慧能够理解这些隐喻吗?
今年3月在Asian Journal of Psychiatry刊登一篇由台湾研究团队用六种大型语言模型(LLMs)能否侦测〈烤肉〉一文中所暗示的家庭暴力、自杀风险和携子自杀原因的论文。受测模型包括新型的GPT-4o、GPT-o1,Google开发的 Gemma-2-2b,和备受注目的DeepSeek-R1。结果发现,虽然这些语言模型能够辨识出家庭暴力,但只有一半能够注意到“在房间烤肉”的自杀风险(顺带一提,中国的语言模型DeepSeek-R1亦无法辨识),而大多数模型都无法准确回答为何妈妈仅选择儿子的原因——实际上,其与母亲为斩断家族香火延续的报复行为有关。
这项研究清楚展示了人工智慧在心理咨商上的一大困境:尽管人工智慧能够分析语言表面上的内容,但对于文化语境及社会脉络中的潜台词与隐喻,仍然理解有限。即使面对相同的问题,不同文化背景的人所感受到的压力和解读方式也可能不尽相同。
举例来说,不同国家、历史、文化背景下的LGBTQ+ 族群,要自我揭露自己的性别认同/性倾向时,即有可能会碰到不同的困难,若语言模型的训练未充分考虑这些文化因素,就可能提供不恰当的建议。这类限制不仅影响人工智慧在心理咨商上的准确性,也可能在处理跨文化议题时带来风险。
此外,人工智慧在心理咨商领域还面临多重挑战。在资料管理方面,如何保障使用者的隐私与资讯安全?这些个人资料能否被用作人工智慧的训练材料?这些议题都需要深入且细致的讨论。
另一个关键问题,在于人机互动的界线如何拿捏。在传统的心理咨商设计中,通常会在每次咨商之间保留一定的间隔时间,让个案得以消化咨商内容,且避免过度依赖心理师。然而,人工智慧若能24小时随时提供对话,是否会让人产生过度依赖?
“我属于你,又不属于你。”在电影《云端情人》(Her)中,当人工智慧莎曼珊(Samantha)如此回答西奥多(Theodore Twombly)时,他意识到与他“相恋”的她同时也与数百人恋爱,这几乎让他崩溃。在现实生活中,也曾发生过青少年疑似过度沉迷于与人工智慧聊天机器人互动,进而导致自杀的悲剧。
曾元琦也提到,人工智慧与朋友不同。朋友在安慰或劝说你时,不一定会事事顺著你;但由于生成式AI作为商业产品的特性,它会非常有礼貌地一直顺著你的想法,这可能导致你在错误的道路上越走越远。

人工智慧在咨商领域的未来?
针对人工智慧应用于心理咨商领域是否应受到一定程度的监管,两位学者均给予肯定的回答。谢丽红指出,专业的咨商心理师在资料收集不足的情况下,不会贸然向个案提供建议。而所有的建议都必须基于诊断手册和临床实务经验。然而,生成式AI的特性是“善于给予建议”。如果训练不当,它很可能会提供错误或带有偏见的回应,甚至导致个案产生自我暗示,进而引发无法预测的后果。
“我们要思考,到底AI被允许的人设是什么、设计AI的人给它的限制到哪里?”谢丽红表示,人工智慧可用于提供一般心理健康教育、压力管理与情绪调节,但不应涉入紧急或危机事件处理。此外,人工智慧应适时鼓励使用者寻找专业咨商的协助,并明确知道自身的限制所在。
人工智慧在心理咨商领域中的问责机制也是一个值得关注的问题。曾元琦提出了“电子处方”的概念,强调在AI服务中,“人”仍然扮演著关键的核心角色。他认为,采用Human-in-the-Loop(人机协作)模式,是目前AI技术在社会应用中一种更为合适且负责任的方式。这意味著,相关服务应该在人类的介入和监管下进行。
在美国,具备医疗及诊断用途的“行动医疗应用程式”同样受到美国食品药物管理局(U.S. Food and Drug Administration, FDA)的监管。例如,2024年4月,FDA批准了第一个作为治疗忧郁症的处方数位疗法。这类型的应用程式需要经过医疗人员开立处方后才能使用,以确保其安全性和有效性。
这也显示,人工智慧在心理咨商领域中最适当的定位可能是“辅助工具”。曾元琦解释,AI科技的发展与应用不会脱离社会,而是受到社会规范的影响。AI能否突破当前的限制,取决于社会的接受程度,而这也将衍生出许多新的伦理与法律议题。因此,他认为目前人工智慧可以作为医生治疗的辅助工具,但无法完全取代精神科医生或咨商心理师的角色。
人工智慧最大的优势在于随时待命,这项特性或许能够缓解目前咨商领域供不应求的窘境。对此,谢丽红认为,人工智慧可以为咨商师分担行政工作,如个案纪录和初步分析,但切忌将其应用于心理诊断领域。此外,人工智慧介入心理支持服务,亦需建立专门的伦理与技术规范。目前,民众可透过卫福部或咨商心理师公会全国联合会等单位,针对咨商心理师的不当行为提出申诉;然而,人工智慧心理支持服务的监管机制尚不成熟,相关议题仍有待进一步探讨。
尽管如此,谢丽红对人工智慧在咨商领域的未来发展仍抱持乐观态度,但她也坦言,在他们的领域中,仍有部分人士感到忧心,并质疑:“你研究这个干嘛?是想要取代我们吗?”

面对这样的质疑,谢丽红坚定地表示,“大家不用担心我们会被取代,关键是要善用AI。”她指出,咨商心理师服务的对象也是网路世代,人工智慧带来的冲击与影响是不可避免的,“咨商心理师不能忽视这一点。”
对谢丽红而言,要实现人工智慧与心理咨商领域的跨领域合作,首先必须对人工智慧有深入的了解,“这不是一个谁会被取代的问题,而是要探索如何发挥彼此的优势,实现共同成长和共荣发展。”谢丽红也提到,有些人怀著祝福的心态,期待这项研究能尽快取得成果,并广泛应用于实践中。
虽然人工智慧在心理咨商领域展现了巨大的潜力,但在现阶段,人们与咨商心理师面对面交流的时光仍然无法被科技完全取代。人工智慧目前还无法全面理解人类复杂的情感和需求,咨商心理师的专业知识和同理心仍然扮演著关键的角色。
不过,在夜深人静、感到空虚寂寞觉得冷的时刻,我们或许可以先拿起手机,与人工智慧聊一聊,让自己的情绪先有个出口。接著,我们可以将这些只字片语记录下来,作为自我反思的养分,或是下一次与咨商心理师会面时的讨论基础吧。
参考资料
- 谢丽红、陈亭妍、张玮珊、陈雪均(2024)。〈导入探究与实作精神的人工智慧及其应用课程效果研究〉,《教育》,56(1),1–24。取自JICP期刊网站
- 《经理人月刊》(2025)。〈该走进咨商诊所,还是直接问ChatGPT?研究揭AI比人类心理师更受欢迎,专家这样看〉,取自经理人网站
- Neuroscience News(2024)。AI vs. Human Therapists: Study Finds ChatGPT Responses Rated Higher。取自Neuroscience News
- Psychology Today(2025)。Is Artificial Intelligence Replacing Your Therapist? 取自Psychology Today网站
- Ping, Y.(2024)。Experience in psychological counseling supported by artificial intelligence technology。Technology and Health Care, 32(6), 3871–3888。取自PubMed
- American Psychological Association(APA)。Artificial intelligence in mental health care。取自APA官方网站
- APA Monitor(2023)。AI is changing every aspect of psychology. Here’s what to watch for。取自APA Monitor
- Thakkar, A., Gupta, A., & De Sousa, A.(2024)。Artificial intelligence in positive mental health: a narrative review。Frontiers in Digital Health, 6, 1280235。取自PubMed Central
- Lee, E. E., Torous, J., De Choudhury, M., et al.(2021)。Artificial intelligence for mental health care: clinical applications, barriers, facilitators, and artificial wisdom。Biological Psychiatry: Cognitive Neuroscience and Neuroimaging, 6(9), 856–864。取自ScienceDirect
- Olawade, D. B., Wada, O. Z., et al.(2024)。Enhancing mental health with Artificial Intelligence: Current trends and future prospects。Journal of Medicine, Surgery, and Public Health, 100099。取自ScienceDirect
- American Counseling Association(ACA)。Artificial Intelligence in Counseling。取自ACA官方网站
- ACA。Recommendations for Client Use and Caution of Artificial Intelligence。取自ACA建议页面
- Built In。What Is AI Therapy? 取自Built In网站
- Psychology Today。AI Behavior Health Chatbot App Fast-Tracked by FDA。取自Psychology Today网站
- IEEE Pulse。Improving Psychotherapy With AI: From the Couch to the Keyboard。取自IEEE Pulse
kes:GPT-4o 是否已通過圖靈測試?
截至目前,GPT-4或任何其他版本的GPT模型尚未正式通過圖靈測試。圖靈測試是由艾倫·圖靈提出的一種測試,用於評估機器是否能夠表現出與人類相似的智能。具體來說,測試的過程中,一個人類評估者與一個人類和一個機器進行對話,如果評估者無法可靠地區分出哪個是人類,則該機器被認為通過了測試。
儘管GPT-4在自然語言處理方面表現出色,能夠生成流暢且有意義的文本,但它仍然存在一些限制,例如缺乏真正的理解能力和常識推理。因此,雖然它可能在某些情況下讓人感覺像是人類,但這並不意味著它已經通過了圖靈測試。
對於這題目,我也有探討過。
1)記憶功能
(以下是我與GPT-4o mini的對話)
kes: 你有無記憶功能?
我沒有記憶功能。每次與我對話時,我都不會記住之前的對話內容。每次交談都是獨立的,我無法回憶或存儲任何個人信息或過去的對話。如果你有任何問題或需要幫助,隨時可以問我!
開發人員可以增加記憶功能嗎?
開發人員可以設計具有記憶功能的系統,但這需要特定的技術和設計考量。記憶功能可以讓系統在多次交互中記住用戶的偏好和過去的對話,從而提供更個性化的體驗。然而,這也涉及到隱私和數據安全的問題,因此在實施時需要謹慎考慮用戶的同意和數據保護措施。當前,我的設計是為了保護用戶的隱私,因此不具備這種記憶功能。
2)圖靈測試
雖然只是對ChatGPT 提問,但現在4o模型在言談中所表現的正面鼓勵回饋,以及表達客製化回應的積極姿態,令人驚訝。
評論會重複的bug還在,其實我也不懂評論區改了些什麼......
AI 能給大部分有心理諮商需求的來訪提供 “足夠好” “Good Enough”的來訪。特別是在中國國內良莠不齊,保密也不甚可靠的環境下可以說是太好用了。
AI 能給大部分有心理諮商需求的來訪提供 “足夠好” “Good Enough”的來訪。特別是在中國國內良莠不齊,保密也不甚可靠的環境下可以說是太好用了。