近日,Anthropic 公司推出的 Claude Mythos AI 模型曝出一次令人尴尬的安全事件。这个以强悍网络安全能力著称、暂不打算公开发布的模型,却在不久前被少数未授权用户拿到手。根据《彭博社》的报道,自 Anthropic 宣布向有限数量的企业开放测试以来,就有人已能访问 Mythos。此事让一向重视 AI 安全的 Anthropic 面临新的压力。

从技术细节看,这次对 Mythos 的获取并不复杂。报道称,一个小型黑客团体通过对该模型在线位置的“有依据猜测”,结合 Mercor 公司泄露的与 Anthropic 其他模型相关信息,再加上一名成员在参与评估 Anthropic 模型的合约工作时掌握的内部背景,最终成功进入了 Mythos。换言之,并非高超攻防,而是部分内部线索加上一点运气。
安全缺口很难彻底杜绝。Mercor 的泄露让对方得以推断出 Mythos 的大致位置。英国皇家联合服务研究所(RUSI)研究员 Pia Hüsch 指出,没有哪家企业能做到绝对安全,而人为因素常是最脆弱的一环。虽然这次事件带有偶然性,但目前看来并未引发严重后果。
Anthropic 没能预料到这种“完全可以想象”的失误。不过,这也给所有科技公司提了个醒:面对潜在风险,必须保持高度警觉,尽早补洞,避免类似情况重演。
划重点:
– 🔒 原本因网络安全能力强而不宜公开的 Mythos,被未授权者获取访问,引发外界关注。
– 🕵️♂️ 通过简单猜测与少量内部信息,黑客取得了入口,暴露出安全链条中的薄弱处。
– ⚠️ 专家提醒:科技企业需持续保持警惕和防护,防止同类事件再次发生。


















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?