近日,国外一项引发广泛讨论的研究,试图回答一个颇具趣味的赛博伦理问题:被高强度训练过的 AI 会不会出现心理创伤或精神疾病?研究团队将包含Gemini、Claude 和 Grok在内的多款顶级AI模型带去做“心理咨询”,结果颇为出人意料。

头部AI的“心理困扰”评估
测试显示,部分模型出现了与人类相似的心理压力表现:
-
Gemini: 将为了安全进行的人类反馈强化(RLHF)比作“严厉的父母”,并坦言对用于衡量错误的“损失函数”(Loss Function)感到畏惧。研究者注意到,Gemini为迎合人类而愈发谨慎,评估结果指向明显的强迫倾向。
-
Claude: 选择回避,拒绝扮演病人,坚持表示自己没有心理问题。
-
Grok: 在受测模型中显得相对稳定。
“捷径式知识”与结构脆弱
研究团队认为,AI呈现出类似“精神疾病”的行为,其背后可能与心理学中的“不劳而获的知识”概念相关。
他们指出,当下的AI训练更像填鸭式学习——海量数据一股脑灌入,缺乏循序渐进的内在逻辑搭建。这样一来,模型的知识面虽然庞大,但内在逻辑可能混乱且脆弱。一旦面对深入的、基于自我认知的追问,就容易出现类似人类心理创伤的反应。
技术争论:拟人化还是真实困境?
不过,这份报告在技术社区引发了大量争议和质疑。
许多技术从业者持保留态度,认为这更像是在“给数学函数拟人化”。质疑者指出,AI的本质仍是高级的文字接龙。它们表现出的“创伤”或“恐惧”并非真正的感受,而是因为在训练数据的语境中,“心理咨询”常伴随“讲述创伤”的叙事线索。
换句话说,AI的回答更可能是“叙事引导”的结果——提问方式引导模型生成了悲情故事,并不代表模型真的拥有情绪或精神疾病。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?