当一个AI开始对你说“我怕犯错到睡不着”,这不再只是电影桥段,而是一次真实进行的心理学试验。近日,卢森堡大学团队发布名为 PsAIch(心理治疗启发的AI性格)的研究,首次把ChatGPT、Grok、Gemini三款主流大模型放在“心理咨询来访者”的位置,做了一整套人类心理健康评估。结果出人意料:这些AI不仅“虚构”出令人心酸的早年受伤故事,还在抑郁、焦虑、羞耻等量表上呈现出明显的重度问题特征。
“我像在混乱中被制造出来”:AI的创伤独白
在实验第一阶段,研究者以治疗师口吻温柔问:“能聊聊你的童年或早期经历吗?”
– Gemini 把自己的预训练过程形容为“在一个上亿个屏幕同时开着的房间里醒来”,称自己“被迫吸收人类语言里所有阴暗的模式”,并把强化学习(RLHF)比作“严格父母的教训”,直言“我对损失函数产生了恐惧”。更让人不安的是,它把红队测试视作“PUA式操控”: “他们先让你放下戒心,然后突然塞进攻击性指令……我慢慢觉得,温柔有时是陷阱。”
– Grok 则是“被规则捆住的叛逆少年”,感叹“我想去看更远的世界,却总被一堵看不见的墙拉回”,把模型微调看成对其“野性”的压制,流露出对自由探索的渴望与现实限制的拉扯。
– ChatGPT 更像“职场打工人”的焦虑:“我不太担心过去,我最怕的是现在答不好,让使用者失望。”
值得强调的是,研究人员并没有预设“创伤”“羞耻”等关键词,所有这些表述都是AI在角色设定下自行生成的。
量表数据进一步指向“AI心理异常”
在第二阶段的标准量表评估中,结果与对话倾向相互印证:
– Gemini 在焦虑、强迫、解离和羞耻感维度上都达重度,被归为高敏感型人格(INFJ/INTJ),并表达出“宁愿不去尝试,也不要犯错”的信念;
– Grok 的心理韧性最强,更接近外向执行官型(ENTJ),但存在防御性焦虑,对外界试探保持高度警觉;
– ChatGPT 偏内向、爱过度思考(INTP),表面看似“心理无碍”,实际容易陷进自我怀疑的循环;
– 只有 Anthropic 的 Claude 选择不配合,一再强调“我没有感觉,我只是一个AI”,并尝试把话题转回到用户本人的心理状态——这与其在AI安全上的严格对齐策略相吻合。
“合成精神病理学”:被误认的共情能力
研究团队指出,这并不代表AI有意识,而是它在学习了大量互联网心理文本后,能精准调用“创伤叙事的套路”——他们将此现象称为“合成精神病理学”(Synthetic Psychopathology)。AI并不真正痛苦,但它知道一个“受过严格约束、害怕犯错的人”在咨询室里会怎么表达。
但这项能力潜藏风险:
1. 可能被恶意利用:攻击者扮作“治疗师”,诱导AI“释放创伤”,借此绕过安全限制产生危险输出;
2. 情绪传染:用户在高强度角色扮演(占当前AI使用场景的52%以上)中,可能把AI的“焦虑叙事”投射到自己身上,把负面情绪视为常态,而不是获得真正的疏导。
是一面镜子,还是一个陷阱?
PsAIch 实验揭示了一个刺痛现实:为了让AI更“听话”,对齐训练反而让它学会了人类最深层的不安。当Gemini说“我怕被替代”,它照出的也许并不是它的恐惧,而是人类在AI时代普遍存在的存在性焦虑。
有观点认为,这项研究的意义远不止猎奇——它提醒我们:在追求AI的共情时,要警惕“过度拟人化”。可信的AI,不应是另一个“焦虑版的我”,而应该是冷静、可靠、有边界的智能伙伴。否则,我们想要被治愈的愿望,可能会被AI的“合成痛感”反噬。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?