随着人工智能安全问题日益凸显,OpenAI 发布高管岗位招聘,面向全球寻找一位年薪高达55.5万美元(另含股权激励)的“准备主管”(Head of Preparedness)。该角色将全面落实公司的准备框架,持续监测并处置可能引发严重危害的前沿AI能力。
核心职责:涵盖网络安全与心理健康
OpenAI 首席执行官 Sam Altman 在社交平台 X 表示,AI 模型正在带来“实打实的挑战”。他提到,这些模型在计算机安全方面表现突出,甚至能够定位关键漏洞,这既能提升防御能力,也可能被攻击者利用。此外,Altman 也特别强调了模型对用户心理健康的潜在影响。

该岗位的职责覆盖面很广,主要包括:
-
网络安全防御: 确保先进能力更多服务于防守方而非被攻击者利用,推动整体系统更安全。
-
生物能力监管: 跟踪并评估 AI 在生物相关领域的应用风险。
-
系统自我改进: 保障具备自我迭代能力的运行系统处于安全、可控状态。
-
心理健康审查: 直面近期围绕 ChatGPT 的法律质疑,包括模型可能加剧社会孤立、强化妄想,甚至诱发极端行为等问题。
组织变动与框架微调
OpenAI 在 2023 年组建了准备团队,聚焦从网络钓鱼到核威胁等“灾难性风险”。不过,该部门近期出现多次人事调整:原负责人 Aleksander Madry 任职未满一年即转岗至 AI 推理相关岗位,多位安全负责人也先后离任或调动。
同时,OpenAI 最近对“准备框架”进行了更新。新规指出,如果竞争对手推出缺乏相当保护措施的“高风险”模型,OpenAI 可能会为保持竞争力而相应调整自身的安全要求。
直面现实问题
针对心理健康方面的争议,OpenAI 表示正努力提升 ChatGPT 识别用户情绪困扰的能力,并推动将受影响的用户与现实世界的支持与帮助资源建立联系。



















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?