Anthropic 放下标志性“安全护栏”承诺,AI 行业迎来罕见政策大转向

一直把自己定位为“安全守门人”的人工智能创业公司 Anthropic,正在经历一次明显的路线变化。近期,该公司宣布大幅放宽其长期奉行的“安全护栏”规则。业内普遍认为,这是 AI 发展进程中的一个关键拐点:哪怕是曾经把“人类长远利益”放在第一位的理想派,如今也开始更多考虑利润和商业扩张。

在 2023 年公布的《负责任扩展政策》(RSP)中,Anthropic 曾表示,一旦自家 AI 模型达到某些危险门槛,公司会主动放慢或推迟相关研发。但在本周二发布的一篇博客文章中,Anthropic 更新了这套规则:如果公司判断自己在市场竞争中并没有明显的领先优势,就不再坚持此前“主动推迟研发”的承诺。

这一调整背后的原因,来自激烈的商业竞争。Anthropic 坦承,当下的政策环境已经转向优先考虑 AI 竞争力和经济增长,而联邦层面的安全监管讨论还停留在比较早期的阶段,没有形成真正的约束。在与 OpenAI、谷歌以及埃隆·马斯克旗下 xAI 的角逐中,Anthropic 已意识到,过于保守的安全策略,很可能会让自己在这场颠覆性技术竞赛中落在后面。

目前,Anthropic 正在推进新一轮融资,最新估值已接近 3,800 亿美元。为了向资本市场展示自己的商业空间,公司正在加快新模型的发布节奏。不过,这种“速度优先”的策略,也在内部引起了不小震动。资深安全研究员 Mrinank Sharma 已经选择离职,并公开提醒称,全球正面临一系列相互关联的危机,而在缺乏足够约束的情况下推进 AI 研发,可能会放大这些风险。

概要:

  • 🚨 安全立场转向:Anthropic 调整《负责任扩展政策》,取消了对高风险 AI 研发“单方面主动放缓或推迟”的硬性承诺,更强调自身在竞争中的位置和优势。

  • 📈 商业压力主导:在接近 3,800 亿美元估值和潜在上市压力的推动下,公司从强调“安全护城河”,转向追求“市场份额”和增长速度,以应对 OpenAI 等强力对手。

  • ⚠️ 关键人才出走:路线调整引发内部安全团队的不安和离职,折射出 AI 创业公司在“技术向善”与“在激烈竞争中活下去”之间的深层矛盾。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享