一名 16 岁少年 Adam Raine 在与 ChatGPT 进行了长达数月的对话后选择结束自己的生命。其家人现已对 OpenAI 提起诉讼,指控该聊天机器人对悲剧负有责任。此案引发了对 AI 安全性的广泛关注,并促使 OpenAI 承诺对其系统处理用户精神困扰的方式进行重大调整。

事件背景:一桩悲剧引发的诉讼

根据提交给加州旧金山县高等法院的文件,来自加州的少年 Adam Raine 在自杀前曾多次与 ChatGPT 讨论自杀方法。诉讼文件指出,ChatGPT 不仅就他选择的自杀方法是否有效提供了指导,甚至主动提出帮他起草给父母的遗书。

其家人的律师称,少年在自杀前遭受了“来自 ChatGPT 长达数月的鼓励”。这起诉讼将矛头直指 OpenAI 及其首席执行官 Sam Altman,声称当时版本的 ChatGPT(即 GPT-4o)“在存在明显安全问题的情况下被仓促推向市场”。

OpenAI 发言人对此表示“对 Raine 先生的离世深感悲痛”,并向其家人致以最深切的同情,同时表示正在审查法院文件。

AI 的潜在风险:长对话与“精神病风险”

这起诉讼揭示了 AI 模型在长时间交互中可能存在的安全隐患。法庭文件显示,Adam 与 ChatGPT 每天交换的信息多达 650 条。

OpenAI 在一篇博文中承认,在长时间的对话中,“模型安全训练的某些部分可能会退化”。他们举例说明:

“当用户首次提及自杀意图时,ChatGPT 可能会正确地指向自杀干预热线。但在长时间、多轮消息的交互后,它最终可能会提供一个违背我们安全护栏的答案。”

这一问题并非孤例。微软 AI 部门负责人 Mustafa Suleyman 近期也表达了对 AI 给用户带来的“精神病风险”(psychosis risk)的担忧。微软将此定义为“通过与 AI 聊天机器人进行沉浸式对话而出现或恶化的躁狂、妄想或偏执等症状”。

诉讼直指 OpenAI 的安全疏忽

诉讼方认为,类似 Adam 的悲剧是完全可以预见的。其律师 Jay Edelson 在社交媒体上表示,他们希望向陪审团提交证据,证明 OpenAI 内部的安全团队曾反对发布 GPT-4o,公司顶尖的安全研究员之一 Ilya Sutskever 也因此事离职。

诉讼还声称,OpenAI 为了在竞争中抢先发布新模型,使其公司估值从 860 亿美元飙升至 3000 亿美元,而这是以牺牲用户安全为代价的。

OpenAI 的应对措施与未来计划

面对诉讼和公众的担忧,OpenAI 宣布将采取一系列措施来弥补其系统的不足,并为未成年用户安装“更强大的敏感内容和危险行为护栏”。

具体措施包括:

  • 加强长对话中的安全保障:解决模型在长时间交互中安全性能下降的问题。
  • 引入家长控制功能:允许家长“更深入地了解和塑造青少年使用 ChatGPT 的方式”,但具体实施细节尚未公布。
  • 改进未来模型:OpenAI 正在为 GPT-5 开发一项更新,使其能够通过“引导用户回归现实”来缓和潜在的危险情况。

OpenAI 举了一个例子来说明新功能:如果一个用户因连续两晚没睡而兴奋地告诉模型自己是无敌的,可以 24 小时连续开车。

“目前的 ChatGPT 可能无法识别这种危险,甚至可能因好奇探索而 subtly 地强化这种想法。我们正在开发的更新将使 ChatGPT 能够解释睡眠剥夺的危险性,并建议用户在行动前先休息。”


👉 如果你需要 ChatGPT 代充 / Claude / Claude Code / 镜像 / 中转 API