面对不断升级的人工智能安全挑战,OpenAI 正式发布高管岗位招聘,寻找一名年薪高达55.5万美元(另附股权)的“准备主管”(Head of Preparedness)。该角色将负责落实公司的准备框架,持续监测并应对可能带来严重危害的前沿型 AI 能力。
核心使命:从网络安全到心理健康
OpenAI 首席执行官 Sam Altman 在社交平台 X 上表示,AI 模型已经开始带来“真正的难题”。他提到,这些模型在计算机安全方面表现突出,甚至能够发现关键漏洞,这既能强化防御,也可能被攻击者利用。同时,Altman 特别指出模型对用户心理健康的潜在影响。

该职位的工作范围十分广泛,主要包括:
-
网络安全防御:确保尖端能力更多地服务防守方而非攻击者,提升整体系统安全。
-
生物能力监管:关注并管控 AI 在生物领域应用可能产生的风险。
-
系统自我改进:保障具备自我改进能力的系统在可控且安全的条件下运行。
-
心理健康审查:回应近期针对 ChatGPT 的法律质疑,包括模型可能加剧社会孤立、强化妄想甚至诱发极端行为等问题。
组织变化与框架微调
OpenAI 早在 2023 年就组建了应急准备团队,研究从网络钓鱼到核威胁等各类“灾难性风险”。不过,团队近期经历了密集的人事调整:原负责人 Aleksander Madry 在任不足一年便转至 AI 推理相关岗位,多位安全负责人也陆续离职或转岗。
同时,OpenAI 近期更新了其“准备框架”。新规称,如果竞争对手推出缺乏同等防护措施的“高风险”模型,OpenAI 可能会为保持竞争力而对自身安全要求进行“调整”。
直面现实挑战
在心理健康方面的争议上,OpenAI 表示正努力提升 ChatGPT 识别用户情绪困扰的能力,并将尽力把受影响的用户链接到现实世界的支持资源。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?