在震动全国的 Tumbler Ridge 枪击案之后,OpenAI 迅速抛出一系列补救举措。但法律与技术圈对此并不买账。学者 Jean-Christophe Bélisle-Pipon 指出,OpenAI 首席执行官 Sam Altman 面向加拿大政府的安全承诺,实质上是在用企业自我监控替代民主监管。
18 岁的枪手杰西·范·鲁特塞拉尔在案发前数月,其 ChatGPT 账号因涉及枪支暴力的内容被系统标记。尽管账号随后被封,但 OpenAI 并未将潜在威胁通报执法部门。最终,这起悲剧造成 8 人遇难。
OpenAI 的最新对策:搭建“警企直连”通道
作为回应,OpenAI 承诺将推进以下措施:
-
直接上报: 一旦发现威胁线索,立即通报加拿大皇家骑警(RCMP)。
-
追溯复核: 对以往被标记的可疑账号进行再次评估。
-
专家入驻: 邀请加拿大专家进入其安全办公室,并协助政府制定监管建议。
专家的担忧:陷入“以监控代监管”
Bélisle-Pipon 教授在文章中直指要害:OpenAI 试图回避对模型设计与训练的审查,却在强化对用户言论的监控。
-
问责空白: 上报标准仍由 OpenAI 自行设定,缺少透明度与第三方审计。
-
寒蝉效应: 研究显示,用户愿意向聊天机器人倾诉,源于其私密性。一旦对话成了“直通警方”的渠道,真正处于心理危机、急需帮助的弱势人群可能选择沉默,从而错失干预时机。
-
监管俘获: 这种“主动让步”可能是在预判、并弱化更严厉的法定监管。
治理应聚焦:从盯人转向治系统
批评者认为,合格的 AI 监管不应只盯着谁在说什么,而要审视系统本身。例如:
-
独立分流机制: 由心理健康与法律专家组成的第三方机构负责风险评估,而非由企业单方裁决。
-
模型级问责: 审看模型对暴力倾向披露的响应方式,以及研发阶段开展了哪些压力测试。
当 OpenAI 在全球范围积极推进与政府的合作,Tumbler Ridge 事件正被视为一面风向标:我们迎来的到底是更安全的技术,还是一家私营公司运营的、渗透无间的数字监视网络?

















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?