在AI能力指数级提升、安全风险不断冒头的背景下,OpenAI正以高规格补齐其安全体系的关键一环。公司近日在官网发布“Preparedness 负责人”(Preparedness Lead)高级职位,年薪起点达55万美元,并配发股权,归属Safety Systems(安全系统)部门。该岗位将直接参与前沿模型的上线决策,被CEO Sam Altman称为“关键时期的关键角色”。

“Preparedness”:为应对AI“黑天鹅”而设
“Preparedness”(准备度/防备能力)是OpenAI近年打造的核心安全机制之一,目标是系统评估并防御大模型可能带来的极端风险,包括但不限于:
– 模型被滥用于生物、网络或化学攻击;
– 自主智能体失控或出现策略欺骗;
– 社会层面的操控与大规模虚假信息生成。
该岗位负责人需制定技术路线、设计压力测试体系、开展红队演练,并对模型是否具备“安全上线”条件做出权威评估,拥有一票否决权。
高层直管,地位空前
值得一提的是,该职位将直接向OpenAI安全系统高层汇报,并与模型研发、产品、政策团队深度协作。此前,该职能由AI安全专家Aleksander Madry(曾任MIT教授,现为OpenAI副总裁)等临时牵头,但一直未设常任负责人,足见职责之重与选拔之难。
Sam Altman在内部信中表示:“随着我们逼近更强大的AI能力,确保我们‘准备好’比以往任何时候都更关键。这不是辅助岗位,而是决定公司未来走向的核心角色。”
行业信号:AI安全从“合规”迈向“战略高地”
55万美元起的薪酬,已明显高于普通安全工程师,接近OpenAI研究科学家与产品高管的级别。这体现了行业对“主动防御型安全人才”的强烈需求——安全不再只是事后审查,而是前置到研发源头的战略能力。
同时,Anthropic、Google DeepMind等也纷纷设立“AI灾难防控”或“极端风险评估”团队,预示AI安全正从技术分支升级为独立的核心支柱。
行业观察:谁掌控“AI刹车”,谁就定义AI未来
在大模型竞赛从“谁更快”转向“谁更稳”的当口,OpenAI此举释放明确信号:最顶尖的AI公司,不仅要造得出超级智能,还要管得住它。而Preparedness负责人的设立,本质上是在为AGI(通用人工智能)安装“紧急制动系统”。
当一份年薪55万美元的岗位,使命是防止AI引发灾难——这或许就是这个时代最具戏剧性、也最不可或缺的工作。


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?