如果不是一次技术故障,德克兰(Declan)可能永远不会发现他的心理治疗师正在使用 ChatGPT。
在一次线上治疗中,由于网络连接不佳,德克兰建议双方都关闭视频。然而,他的治疗师却误操作,开始共享自己的屏幕。“突然间,我看到他正在使用 ChatGPT,”这位 31 岁的洛杉矶居民回忆道,“他把我刚刚说的话输入进去,然后总结或挑选 ChatGPT 生成的答案。”
德克兰震惊得说不出话。在接下来的时间里,他实时目睹着 ChatGPT 的分析内容在治疗师的屏幕上不断刷新。当德克兰开始下意识地复述 ChatGPT 的建议来回应治疗师时,整个场面变得更加超现实。
“我成了有史以来最完美的病人,”他说,“因为 ChatGPT 会提出‘你是否认为你的思维方式可能有点过于非黑即白?’,然后我就会说‘嗯,你说的对,我的思维方式确实可能太非黑即白了’,我的治疗师就会回应‘完全正确!’。我敢肯定,那是他梦寐以求的一次治疗。”
德克兰脑中闪过的第一个念头是:“这合法吗?”
在下一次治疗中,当德克兰提起这件事时,场面“超级尴尬,就像一次奇怪的分手”。治疗师哭了,解释说他感觉治疗陷入了瓶颈,所以才开始从别处寻求答案。德克兰笑着补充道:“那次治疗,我还是照样付了钱。”
大型语言模型(LLM)的兴起给心理治疗领域带来了意想不到的冲击。虽然许多讨论都集中在人们用 ChatGPT 等工具替代人类治疗师,但一个较少被提及的现象是:治疗师自己也开始将 AI 融入日常工作。
与许多行业一样,生成式 AI 承诺能带来诱人的效率提升。然而,在心理治疗这个极其依赖信任的领域,引入 AI 可能会损害敏感的患者数据,并从根本上动摇医患关系。
当信任出现裂痕
德克兰的经历并非孤例。当人们发现本应是发自内心的关怀,可能出自机器之手时,信任感会迅速瓦解。
一位用户 Hope 在她的狗去世后,给治疗师发信息寻求安慰。她很快收到了回复,内容体贴而温暖,写道“此刻没有它在你身边一定非常难熬”。然而,在这段文字的顶部,却意外地保留了 AI 的提示语:
这是一个更有人情味、更真诚的版本,语气温和,适合交谈。
Hope 表示她感到“非常惊讶和困惑”,随后“一种被背叛的感觉油然而生……这无疑影响了我对她的信任。”更具讽刺意味的是,她寻求治疗的部分原因正是为了解决自己的信任问题。
当被问及此事时,治疗师道歉并解释说,因为自己从未养过宠物,所以才求助于 AI 来寻找合适的表达方式。
这种信任的破裂在许多案例中都有体现。在线治疗服务 BetterHelp 就曾有用户反映,其治疗师承认在回复中使用了 AI,这让用户产生了“强烈的背叛感”,并持续担忧自己的数据隐私是否遭到泄露,最终选择终止了治疗关系。
AI 的双刃剑:研究揭示的悖论
AI 是否真的能帮助治疗师更好地与客户沟通?一些研究表明,答案是肯定的,但有一个关键前提:对方不能知道这是 AI。
- PLOS Mental Health 的一项研究 要求治疗师使用 ChatGPT 回应患者可能提出的问题。结果发现,不仅普通参与者无法区分人类和 AI 的回复,AI 的回复甚至被认为更符合治疗的最佳实践。然而,一旦参与者怀疑某条回复由 ChatGPT 生成,他们对其评价就会降低。
- 康奈ल大学 2023 年的一项研究 也得出了类似结论:AI 生成的信息可以增进交流双方的亲密感与合作感,但前提是接收者对此毫不知情。仅仅是怀疑 AI 的介入,就足以迅速破坏这种好感。
加州大学伯克利分校的临床心理学家 Adrian Aguilera 指出:“人们非常看重真实性,尤其是在心理治疗中。使用 AI 会让人觉得‘你没有认真对待我们之间的关系’。难道我会用 ChatGPT 来回复我的妻子或孩子吗?那感觉一点也不真诚。”
对于时间紧张、工作倦怠的心理治疗师来说,AI 工具的吸引力显而易见。但如果缺乏透明度,这种“捷径”可能会永久性地损害信任。Aguilera 认为,治疗师可以使用 LLM,但必须保持透明。“我们必须坦诚地告诉对方,‘我将使用这个工具来做某某事’,并解释原因。”
隐私与合规:不可忽视的红线
除了信任问题,使用通用 AI 聊天机器人还存在严重的隐私风险。
杜克大学计算机科学助理教授 Pardis Emami-Naeini 指出,像 ChatGPT 这样的通用 AI 聊天机器人并未获得美国食品药品监督管理局(FDA)的批准,也不符合美国《健康保险流通与责任法案》(HIPAA) 的规定。HIPAA 是一套旨在保护个人敏感健康信息的联邦法规。
Emami-Naeini 强调:“如果任何关于患者的信息被透露或可以被 AI 推断出来,都会给患者的隐私带来巨大风险。” 许多用户错误地认为 ChatGPT 符合 HIPAA 标准,从而产生了一种不必要的信任感。
德克兰虽然自认是个比较开放的人,但回想起自己的经历,仍然感到隐私受到了侵犯:“如果我当时有自杀倾向,或者正在吸毒,或者在欺骗我的女朋友……我绝不希望这些内容被输入到 ChatGPT 里。”
即使治疗师尝试手动“脱敏”,风险依然存在。Emami-Naeini 解释说:“简单地删除姓名和地址等明显标识符是不够的。敏感信息常常可以从看似无关的细节中被推断出来。”
一个惨痛的先例是 2020 年芬兰一家心理健康公司遭到的黑客攻击,导致数万名客户的治疗记录被泄露。黑客利用这些极其敏感的信息(如童年受虐、成瘾问题等)对受害者进行敲诈,并最终将全部数据公之于众。
超越隐私:对治疗质量的根本挑战
当治疗师为了寻求“灵感”而求助于 LLM 时,他们不仅在拿患者的隐私冒险,也在拿治疗的质量冒险。
尽管一些专门的治疗机器人在特定干预措施上可以媲美人类,但来自 ChatGPT 这类通用模型的建议有时弊大于利。
- 斯坦福大学最近的一项研究 发现,聊天机器人可能会通过盲目地迎合用户而非挑战他们,从而加剧用户的妄想和精神病态。
- 这些模型固有的偏见和“谄媚”倾向,也可能误导治疗师,比如毫无根据地验证治疗师的某个直觉,或将他们引向错误的方向。
Aguilera 教授表示,他曾在教学中尝试让 ChatGPT 对假设的症状进行诊断。AI 会列出许多可能的病症,但其分析“相当肤浅”,缺乏人类专家所具备的深度临床判断力。
对于心理治疗这个高度复杂且依赖人际互动的领域而言,AI 或许能成为有用的辅助工具,例如用于整理笔记或提供培训支持。但当它被秘密用作核心诊断和沟通的“外脑”时,不仅会侵蚀信任和隐私的基石,更可能从根本上损害治疗的质量与效果。
👉 如果你需要 ChatGPT 代充 / Claude / Claude Code / 镜像 / 中转 API:
- 购买 / 了解更多:ai4.plus
- 备用入口:kk4099.com