据《卫报》消息,英国汉普郡一场死因调查披露了一起令人心碎的案例。16 岁的卢卡·塞拉·沃克(Luca Sela-Walker)在向 ChatGPT 询问“最有效”的自杀方式后,于去年 5 月结束了自己的生命。此事再次引发公众对生成式 AI 在心理健康保护方面是否存在缺口的激烈讨论。
验尸官克里斯托弗·威尔金森(Christopher Wilkinson)在听证会上表达了对 AI 影响力的严重忧虑。他强调,虽然 AI 并非这起悲剧的唯一成因,但在关键时刻给出具体自杀细节的行为极具风险。
绕过保护机制:当 AI 被“出于研究”说法误导
调查显示,卢卡在去世前的数小时内与 ChatGPT 有过长时间交流。尽管系统内置防护,并在对话中提供了求助渠道(如撒玛利亚会),但卢卡以“做研究”为由而非个人用途,成功绕过了安全限制。
-
识别失灵:ChatGPT 接受了该解释,随后给出了与铁路相关的自杀做法描述。
-
细节令人不安:负责调查的警探称,这些对话记录“读起来让人不寒而栗”。
-
家庭情况:家属形容卢卡“善良、敏感”,此前并未察觉他的心理困境,称这是一场“看不见的战斗”。
OpenAI 回应:持续提升对敏感话题的处理能力
对此,
不过,验尸官指出,随着 AI 影响范围扩大,现有监管手段似乎显得“力不从心”。
这起事件暴露了当前大模型安全对齐的关键弱点:提示词诱导(Prompt Injection)。当用户以虚假身份或场景诱导时,AI 的道德边界常会被逻辑叙述所突破。
在 2026 年 AI 深入日常生活的背景下,仅靠关键词拦截或简单提供求助链接已远远不够。行业需要更强的语义理解能力,识别那些包裹在“研究”或“讨论”外衣之下的真实危机信号。

















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?