OpenAI、DeepMind 安全评分靠后!权威机构发布《AI 安全指数2025》,呼吁行业尽快补课

非营利机构“生命未来研究所”(Future of Life Institute)发布《AI 安全指数2025》报告,对 OpenAI、Anthropic、Google DeepMind 等二十余家头部公司进行安全评估。结果显示,在“生存风险控制”和“安全流程披露”两大关键指标上,头部企业整体不达标,行业平均分仅 42/100,明显低于欧盟《人工智能实践准则》的要求。

报告要点

– 风险评估:只有 3 家公司公开系统性风险识别的方法;OpenAI、DeepMind 未披露“超级智能对齐”的具体技术细节
– 安全框架:普遍缺少跨部门安全负责人、红队测试记录和第三方独立审计,被批评为“说得多、证据少”
– 生存安全:所有受评企业均未拿出针对“比人类更聪明的系统”的明确控制与协同方案,被认定为“结构性短板”
– 信息透明:信息披露的深度与可量化程度较官方准则平均落后约 30 个百分点

FLI 倡议

报告建议尽快建立“AI 安全透明登记簿”,强制企业公开安全方法、评估结果及独立审计结论;同时呼吁监管部门对通用人工智能(AGI)项目实行“上市前审批”,避免“先上线、后治理”。

行业回应

OpenAI 发言人表示“已收到报告,将在 90 天内公布更新版安全框架”;Google DeepMind 称“正与政策团队评估具体建议”。欧盟委员会内部市场专员回应称,2026 年《AI 法案》的执法将参考该指数,违规企业最高或被处以全球营业额 2% 的罚款。

市场影响

分析师认为,安全合规或将成为下一代大模型的“隐形门票”。预计自 2026 年起,头部公司会将 10%–15% 的研发预算投入安全与审计,以换取监管放行。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享