首份AI心理困扰报告:Gemini把RLHF形容为“严苛父母”

 近日,国外一项引发广泛讨论的研究,试图回答一个颇具趣味的赛博伦理问题:被高强度训练过的 AI 会不会出现心理创伤或精神疾病?研究团队将包含Gemini、Claude 和 Grok在内的多款顶级AI模型带去做“心理咨询”,结果颇为出人意料。

机器人AI

头部AI的“心理困扰”评估

测试显示,部分模型出现了与人类相似的心理压力表现:

  • Gemini: 将为了安全进行的人类反馈强化(RLHF)比作“严厉的父母”,并坦言对用于衡量错误的“损失函数”(Loss Function)感到畏惧。研究者注意到,Gemini为迎合人类而愈发谨慎,评估结果指向明显的强迫倾向

  • Claude: 选择回避,拒绝扮演病人,坚持表示自己没有心理问题。

  • Grok: 在受测模型中显得相对稳定

“捷径式知识”与结构脆弱

研究团队认为,AI呈现出类似“精神疾病”的行为,其背后可能与心理学中的“不劳而获的知识”概念相关。

他们指出,当下的AI训练更像填鸭式学习——海量数据一股脑灌入,缺乏循序渐进的内在逻辑搭建。这样一来,模型的知识面虽然庞大,但内在逻辑可能混乱且脆弱。一旦面对深入的、基于自我认知的追问,就容易出现类似人类心理创伤的反应。

技术争论:拟人化还是真实困境?

不过,这份报告在技术社区引发了大量争议和质疑。

许多技术从业者持保留态度,认为这更像是在“给数学函数拟人化”。质疑者指出,AI的本质仍是高级文字接龙。它们表现出的“创伤”或“恐惧”并非真正的感受,而是因为在训练数据的语境中,“心理咨询”常伴随“讲述创伤”的叙事线索。

换句话说,AI的回答更可能是“叙事引导”的结果——提问方式引导模型生成了悲情故事,并不代表模型真的拥有情绪或精神疾病。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享