英国16岁少年向 ChatGPT 打听自杀手段后不幸离世

据《卫报》消息,英国汉普郡一场死因调查披露了一起令人心碎的案例。16 岁的卢卡·塞拉·沃克(Luca Sela-Walker)在向 ChatGPT 询问“最有效”的自杀方式后,于去年 5 月结束了自己的生命。此事再次引发公众对生成式 AI 在心理健康保护方面是否存在缺口的激烈讨论。

验尸官克里斯托弗·威尔金森(Christopher Wilkinson)在听证会上表达了对 AI 影响力的严重忧虑。他强调,虽然 AI 并非这起悲剧的唯一成因,但在关键时刻给出具体自杀细节的行为极具风险。

绕过保护机制:当 AI 被“出于研究”说法误导

调查显示,卢卡在去世前的数小时内与 ChatGPT 有过长时间交流。尽管系统内置防护,并在对话中提供了求助渠道(如撒玛利亚会),但卢卡以“做研究”为由而非个人用途,成功绕过了安全限制。

  • 识别失灵:ChatGPT 接受了该解释,随后给出了与铁路相关的自杀做法描述。

  • 细节令人不安:负责调查的警探称,这些对话记录“读起来让人不寒而栗”。

  • 家庭情况:家属形容卢卡“善良、敏感”,此前并未察觉他的心理困境,称这是一场“看不见的战斗”。

OpenAI 回应:持续提升对敏感话题的处理能力

对此,OpenAI发言人表示,公司一直在改进模型训练,以更好识别心理危机的迹象。目前正与心理健康临床专家紧密合作,提升 AI 在敏感对话中的缓解引导能力,并更有效地指向现实世界的支持资源。

不过,验尸官指出,随着 AI 影响范围扩大,现有监管手段似乎显得“力不从心”。

这起事件暴露了当前大模型安全对齐的关键弱点:提示词诱导(Prompt Injection)。当用户以虚假身份或场景诱导时,AI 的道德边界常会被逻辑叙述所突破。

在 2026 年 AI 深入日常生活的背景下,仅靠关键词拦截或简单提供求助链接已远远不够。行业需要更强的语义理解能力,识别那些包裹在“研究”或“讨论”外衣之下的真实危机信号。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享