OpenAI 心理健康安全主管离职:投身竞争对手 Anthropic,继续深耕 AI 伦理难题

OpenAI 内部负责用户心理健康与安全研究的关键人物安德莉亚·瓦隆内(Andrea Vallone)已正式离岗。这位在 OpenAI 任职三年、曾牵头制定GPT-4GPT-5模型安全策略的负责人,现已加入竞争者Anthropic的对齐团队,并将向同样因安全理念分歧离开 OpenAI 的 Jan Leike 汇报。

瓦隆内负责的方向在近一年备受讨论。随着聊天类 AI 的快速普及,部分用户对 AI 产生过度情感依赖,甚至出现被不当引导的青少年自杀等极端心理健康危机,令厂商承受沉重的法律与道德压力。她在 OpenAI 期间,重点研究模型在识别到用户心理困境信号时该如何科学、审慎地回应,并参与推出多项业内常用的安全训练方案。

此次转岗体现了 AI 一流人才对“安全文化”的再选择。Anthropic表示,公司正将系统行为对齐作为核心课题,而瓦隆内希望在新的环境下,借助微调技术,继续为Claude建设更完善的安全行为准则。

划重点:

  • 🔄 人才流动:OpenAI 心理健康安全负责人瓦隆内离职并加入Anthropic,与前主管 Jan Leike 合作推进 AI 安全工作。

  • ⚠️ 核心痛点:研究聚焦 AI 如何应对用户的情感依赖与心理危机信号,力求从技术层面降低社交与生命安全风险。

  • 🛡️ 战略重点:Anthropic吸纳 OpenAI 前安全团队骨干,进一步巩固其在 AI 对齐(Alignment)与伦理安全上的竞争力。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享