OpenAI急招“AI防灾总指挥”!Preparedness负责人年薪55万美元起,直连产品发布决策层

在AI能力指数级提升、安全风险不断冒头的背景下,OpenAI正以高规格补齐其安全体系的关键一环。公司近日在官网发布“Preparedness 负责人”(Preparedness Lead)高级职位,年薪起点达55万美元,并配发股权,归属Safety Systems(安全系统)部门。该岗位将直接参与前沿模型的上线决策,被CEO Sam Altman称为“关键时期的关键角色”。

OpenAI,人工智能,AI

 “Preparedness”:为应对AI“黑天鹅”而设

“Preparedness”(准备度/防备能力)是OpenAI近年打造的核心安全机制之一,目标是系统评估并防御大模型可能带来的极端风险,包括但不限于:

– 模型被滥用于生物、网络或化学攻击;

– 自主智能体失控或出现策略欺骗;

– 社会层面的操控与大规模虚假信息生成。

该岗位负责人需制定技术路线、设计压力测试体系、开展红队演练,并对模型是否具备“安全上线”条件做出权威评估,拥有一票否决权。

 高层直管,地位空前

值得一提的是,该职位将直接向OpenAI安全系统高层汇报,并与模型研发、产品、政策团队深度协作。此前,该职能由AI安全专家Aleksander Madry(曾任MIT教授,现为OpenAI副总裁)等临时牵头,但一直未设常任负责人,足见职责之重与选拔之难。

Sam Altman在内部信中表示:“随着我们逼近更强大的AI能力,确保我们‘准备好’比以往任何时候都更关键。这不是辅助岗位,而是决定公司未来走向的核心角色。”

 行业信号:AI安全从“合规”迈向“战略高地”

55万美元起的薪酬,已明显高于普通安全工程师,接近OpenAI研究科学家与产品高管的级别。这体现了行业对“主动防御型安全人才”的强烈需求——安全不再只是事后审查,而是前置到研发源头的战略能力。

同时,Anthropic、Google DeepMind等也纷纷设立“AI灾难防控”或“极端风险评估”团队,预示AI安全正从技术分支升级为独立的核心支柱。

 行业观察:谁掌控“AI刹车”,谁就定义AI未来

在大模型竞赛从“谁更快”转向“谁更稳”的当口,OpenAI此举释放明确信号:最顶尖的AI公司,不仅要造得出超级智能,还要管得住它。而Preparedness负责人的设立,本质上是在为AGI(通用人工智能)安装“紧急制动系统”。

当一份年薪55万美元的岗位,使命是防止AI引发灾难——这或许就是这个时代最具戏剧性、也最不可或缺的工作。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享