随着AI能力飞速提升,安全风险也在迅速累积。为补齐关键安全环节,OpenAI近日在官网发布“Preparedness 负责人”(高级)招聘信息:起薪55万美元、配股,归属Safety Systems(安全系统)部门。该岗位将直接参与前沿模型的产品上线决策,被CEO Sam Altman称为“关键阶段的关键岗位”。

“Preparedness”:为应对AI“黑天鹅”场景而生
“Preparedness”(准备度/防备)是OpenAI近年搭建的核心安全机制之一,目标是系统化评估与防范大模型可能引发的极端风险,包括但不限于:
– 模型被利用开展生物、网络或化学攻击;
– 自主智能体失控或进行策略性欺骗;
– 社会层面的操控与大规模虚假信息制造。
该岗位将制定技术路线、设计压力测试体系、组织红队演练,并对模型是否满足“安全上线”条件出具权威评估,且拥有一票否决权。
直连高层,定位空前
值得一提的是,该职位直接向OpenAI安全系统管理层汇报,并与模型研发、产品与政策团队深度协作。此前,该职能由AI安全专家Aleksander Madry(曾任MIT教授,现为OpenAI副总裁)等临时牵头,但尚未设立常任主管,足见职责重大、选人不易。
Sam Altman在内部沟通中强调:“随着我们迈向更强大的AI能力,确保我们‘准备充分’比以往更重要。这不是配角,而是决定公司未来方向的核心职位。”
行业风向:AI安全从“合规”升级为“战略高地”
55万美元起的薪酬,远超一般安全工程师,已接近OpenAI研究科学家与产品高管的薪级。这表明行业对“主动防御型安全人才”的强烈需求——安全不再是事后审核,而要前置到研发源头,成为战略能力。
与此同时,Anthropic、Google DeepMind等也布局类似的“极端风险评估”“AI灾难防控”团队,预示AI安全正从技术分支,走向独立的战略支柱。
AIbase观察:握住“AI刹车”的人,将塑造AI的未来
当大模型竞争从“谁更快”转向“谁更稳”,OpenAI这一动作释放明确信号:最顶尖的AI公司,不仅要造得出超级智能,更要管得住它。设立Preparedness负责人,本质上是在为AGI(通用人工智能)加装“紧急制动系统”。
当一份年薪55万美元的工作,其使命是阻止AI酿成灾难——这或许既富戏剧性,也成为当下最不可或缺的岗位。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?