你的心理治疗师,可能正在偷偷用 ChatGPT 分析你
如果不是一次技术故障,德克兰(Declan)可能永远不会发现他的心理治疗师正在使用 ChatGPT。 在一次线上治疗中,由于网络连接不佳,德克兰建议双方都关闭视频。然而,他的治疗师却误操作,开始共享自己的屏幕。“突然间,我看到他正在使用 ChatGPT,”这位 31 岁的洛杉矶居民回忆道,“他把我刚刚说的话输入进去,然后总结或挑选 ChatGPT 生成的答案。” 德克兰震惊得说不出话。在接下来的时间里,他实时目睹着 ChatGPT 的分析内容在治疗师的屏幕上不断刷新。当德克兰开始下意识地复述 ChatGPT 的建议来回应治疗师时,整个场面变得更加超现实。 “我成了有史以来最完美的病人,”他说,“因为 ChatGPT 会提出‘你是否认为你的思维方式可能有点过于非黑即白?’,然后我就会说‘嗯,你说的对,我的思维方式确实可能太非黑即白了’,我的治疗师就会回应‘完全正确!’。我敢肯定,那是他梦寐以求的一次治疗。” 德克兰脑中闪过的第一个念头是:“这合法吗?” 在下一次治疗中,当德克兰提起这件事时,场面“超级尴尬,就像一次奇怪的分手”。治疗师哭了,解释说他感觉治疗陷入了瓶颈,所以才开始从别处寻求答案。德克兰笑着补充道:“那次治疗,我还是照样付了钱。” 大型语言模型(LLM)的兴起给心理治疗领域带来了意想不到的冲击。虽然许多讨论都集中在人们用 ChatGPT 等工具替代人类治疗师,但一个较少被提及的现象是:治疗师自己也开始将 AI 融入日常工作。 与许多行业一样,生成式 AI 承诺能带来诱人的效率提升。然而,在心理治疗这个极其依赖信任的领域,引入 AI 可能会损害敏感的患者数据,并从根本上动摇医患关系。 当信任出现裂痕 德克兰的经历并非孤例。当人们发现本应是发自内心的关怀,可能出自机器之手时,信任感会迅速瓦解。 一位用户 Hope 在她的狗去世后,给治疗师发信息寻求安慰。她很快收到了回复,内容体贴而温暖,写道“此刻没有它在你身边一定非常难熬”。然而,在这段文字的顶部,却意外地保留了 AI 的提示语: 这是一个更有人情味、更真诚的版本,语气温和,适合交谈。 Hope 表示她感到“非常惊讶和困惑”,随后“一种被背叛的感觉油然而生……这无疑影响了我对她的信任。”更具讽刺意味的是,她寻求治疗的部分原因正是为了解决自己的信任问题。 当被问及此事时,治疗师道歉并解释说,因为自己从未养过宠物,所以才求助于 AI 来寻找合适的表达方式。 这种信任的破裂在许多案例中都有体现。在线治疗服务 BetterHelp 就曾有用户反映,其治疗师承认在回复中使用了 AI,这让用户产生了“强烈的背叛感”,并持续担忧自己的数据隐私是否遭到泄露,最终选择终止了治疗关系。 AI 的双刃剑:研究揭示的悖论 AI 是否真的能帮助治疗师更好地与客户沟通?一些研究表明,答案是肯定的,但有一个关键前提:对方不能知道这是 AI。 PLOS Mental Health 的一项研究 要求治疗师使用 ChatGPT 回应患者可能提出的问题。结果发现,不仅普通参与者无法区分人类和 AI 的回复,AI 的回复甚至被认为更符合治疗的最佳实践。然而,一旦参与者怀疑某条回复由 ChatGPT 生成,他们对其评价就会降低。 康奈ल大学 2023 年的一项研究 也得出了类似结论:AI 生成的信息可以增进交流双方的亲密感与合作感,但前提是接收者对此毫不知情。仅仅是怀疑 AI 的介入,就足以迅速破坏这种好感。 加州大学伯克利分校的临床心理学家 Adrian Aguilera 指出:“人们非常看重真实性,尤其是在心理治疗中。使用 AI 会让人觉得‘你没有认真对待我们之间的关系’。难道我会用 ChatGPT 来回复我的妻子或孩子吗?那感觉一点也不真诚。” ...