OpenAI“安全承诺”惹争议:是真监管还是无处不在的监控?

在震动全国的 Tumbler Ridge 枪击案之后,OpenAI 迅速抛出一系列补救举措。但法律与技术圈对此并不买账。学者 Jean-Christophe Bélisle-Pipon 指出,OpenAI 首席执行官 Sam Altman 面向加拿大政府的安全承诺,实质上是在用企业自我监控替代民主监管

18 岁的枪手杰西·范·鲁特塞拉尔在案发前数月,其 ChatGPT 账号因涉及枪支暴力的内容被系统标记。尽管账号随后被封,但 OpenAI 并未将潜在威胁通报执法部门。最终,这起悲剧造成 8 人遇难。

OpenAI 的最新对策:搭建“警企直连”通道

作为回应,OpenAI 承诺将推进以下措施:

  • 直接上报: 一旦发现威胁线索,立即通报加拿大皇家骑警(RCMP)。

  • 追溯复核: 对以往被标记的可疑账号进行再次评估。

  • 专家入驻: 邀请加拿大专家进入其安全办公室,并协助政府制定监管建议。

专家的担忧:陷入“以监控代监管”

Bélisle-Pipon 教授在文章中直指要害:OpenAI 试图回避对模型设计与训练的审查,却在强化对用户言论的监控。

  1. 问责空白: 上报标准仍由 OpenAI 自行设定,缺少透明度与第三方审计。

  2. 寒蝉效应: 研究显示,用户愿意向聊天机器人倾诉,源于其私密性。一旦对话成了“直通警方”的渠道,真正处于心理危机、急需帮助的弱势人群可能选择沉默,从而错失干预时机。

  3. 监管俘获: 这种“主动让步”可能是在预判、并弱化更严厉的法定监管。

治理应聚焦:从盯人转向治系统

批评者认为,合格的 AI 监管不应只盯着谁在说什么,而要审视系统本身。例如:

  • 独立分流机制: 由心理健康与法律专家组成的第三方机构负责风险评估,而非由企业单方裁决。

  • 模型级问责: 审看模型对暴力倾向披露的响应方式,以及研发阶段开展了哪些压力测试。

当 OpenAI 在全球范围积极推进与政府的合作,Tumbler Ridge 事件正被视为一面风向标:我们迎来的到底是更安全的技术,还是一家私营公司运营的、渗透无间的数字监视网络?

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享