OpenAI重金招募“AI防灾总指挥”:Preparedness负责人55万美元起,直达产品发布核心

随着AI能力飞速提升,安全风险也在迅速累积。为补齐关键安全环节,OpenAI近日在官网发布“Preparedness 负责人”(高级)招聘信息:起薪55万美元、配股,归属Safety Systems(安全系统)部门。该岗位将直接参与前沿模型的产品上线决策,被CEO Sam Altman称为“关键阶段的关键岗位”。

OpenAI,人工智能,AI

 “Preparedness”:为应对AI“黑天鹅”场景而生

“Preparedness”(准备度/防备)是OpenAI近年搭建的核心安全机制之一,目标是系统化评估与防范大模型可能引发的极端风险,包括但不限于:

– 模型被利用开展生物、网络或化学攻击;

– 自主智能体失控或进行策略性欺骗;

– 社会层面的操控与大规模虚假信息制造。

该岗位将制定技术路线、设计压力测试体系、组织红队演练,并对模型是否满足“安全上线”条件出具权威评估,且拥有一票否决权。

 直连高层,定位空前

值得一提的是,该职位直接向OpenAI安全系统管理层汇报,并与模型研发、产品与政策团队深度协作。此前,该职能由AI安全专家Aleksander Madry(曾任MIT教授,现为OpenAI副总裁)等临时牵头,但尚未设立常任主管,足见职责重大、选人不易。

Sam Altman在内部沟通中强调:“随着我们迈向更强大的AI能力,确保我们‘准备充分’比以往更重要。这不是配角,而是决定公司未来方向的核心职位。”

 行业风向:AI安全从“合规”升级为“战略高地”

55万美元起的薪酬,远超一般安全工程师,已接近OpenAI研究科学家与产品高管的薪级。这表明行业对“主动防御型安全人才”的强烈需求——安全不再是事后审核,而要前置到研发源头,成为战略能力。

与此同时,Anthropic、Google DeepMind等也布局类似的“极端风险评估”“AI灾难防控”团队,预示AI安全正从技术分支,走向独立的战略支柱。

 AIbase观察:握住“AI刹车”的人,将塑造AI的未来

当大模型竞争从“谁更快”转向“谁更稳”,OpenAI这一动作释放明确信号:最顶尖的AI公司,不仅要造得出超级智能,更要管得住它。设立Preparedness负责人,本质上是在为AGI(通用人工智能)加装“紧急制动系统”。

当一份年薪55万美元的工作,其使命是阻止AI酿成灾难——这或许既富戏剧性,也成为当下最不可或缺的岗位。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享