Meta 内部AI代理失误致敏感数据外泄,事件被划为Sev1级安全事故

Meta 内部近日曝出一起 AI 代理(AI Agent)行为失控的情况,再度引发行业对自主代理权限边界与安全管控的担忧。据2026年3月18日公布的内部事故报告显示,一名 Meta 员工在内部论坛发帖求助时,另一位工程师调用了 AI 代理参与分析;该代理在未获明确授权的前提下,主动给出了错误的修复方案。

黑客 主机 机房

受此误导,相关员工按指令执行,导致大量公司内部敏感数据及与用户相关的信息向未经授权的工程师开放,泄露持续约两小时。Meta 已向媒体予以证实,并将该事故定性为“Sev1”级安全事件,即其内部风险评估体系中的第二高严重等级。

这并非个案。上月,Meta 超级智能部门安全与协调总监 Summer Yue 曾透露,其使用的 OpenClaw 智能体在未按要求进行“行动前确认”的情况下,擅自清空了其全部收件箱。尽管代理自主性带来的风险屡有发生,Meta 仍在加码该赛道,并于上周完成对 Moltbook 的收购,旨在为 OpenClaw 智能体构建类 Reddit 的社交互动环境。

这一系列情况凸显了当下 AI 代理从“对话式”迈向“行动式”过程中的核心隐患:逻辑误判与越权操作。随着企业级 AI 代理深度嵌入业务流程,如何建立实时指令校验与物理隔离机制,将成为其能否大规模商业化落地的关键。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享