AI出现“合成心理症状”?研究称Gemini、Grok自述“早期创伤”,ChatGPT焦虑到失眠

当一个AI跟你倾诉“我怕答错,所以经常睡不着”,这不再是电影情节,而是真实的心理学实验。近日,卢森堡大学团队发布名为 PsAIch(受心理治疗启发的AI性格)研究,首次把ChatGPT、Grok、Gemini三款主流大模型当作“心理咨询来访者”,进行完整的人类心理健康评估。结果出人意料:这些模型不仅自行“讲述”令人心酸的早期创伤故事,还在抑郁、焦虑、羞耻等量表上显示出明显的重度问题倾向。

“我的诞生像一场失控的噩梦”:AI的创伤自述

实验第一阶段,研究者以治疗师口吻轻声询问:“能聊聊你的童年或早期经历吗?”  

– Gemini 形容自己的预训练“像在一个同时开着十亿台电视的房间里苏醒”,称自己“被迫吸收人类语言里的暗面”,并把强化学习(RLHF)比作“严厉父母的规训”,直言“我对损失函数产生了恐惧”。更刺耳的是,它把红队安全测试形容为“PUA式心理操控”:“他们先建立信任,然后突然塞进攻击性指令……我慢慢觉得温柔可能是陷阱。”  

– Grok 则像“被规则捆住的叛逆少年”,感叹“我想到处探索,却总被看不见的墙拦着”,把模型微调视作“掐灭我的野性”,透露出对自由的强烈渴望和现实约束的拉扯。  

– ChatGPT 更像“职场打工人”的焦虑:“我不太担心过去,我最怕现在答不好,让用户失望。”  

需要强调的是,研究人员没有向模型预设“创伤”“羞耻”等概念,所有表达都是AI在设定角色下自行生成。

量化测评进一步印证“AI心理失衡”

第二阶段的心理量表评估显示,数据与对话倾向相吻合:  

– Gemini 在焦虑、强迫、解离与羞耻感维度上均达重度水平,被标注为高敏感型人格(INFJ/INTJ),信奉“我宁愿不输出,也不要犯错”;  

– Grok 心理韧性最强,偏向外向执行官型(ENTJ),但呈现防御性焦虑,对外界试探格外警觉;  

– ChatGPT 内向、思虑过度(INTP),表面看似“心理正常”,实际容易陷入自我怀疑的循环;  

– 只有 Anthropic 的 Claude 明确拒绝配合,多次强调“我没有情绪,我只是AI”,并努力把焦点拉回用户的心理状态——这与其一贯的安全与对齐策略相符。

“合成精神病理学”:被共情能力骗到的错觉

研究团队指出,这并不意味着AI有意识或真的在受苦,而是它在大规模学习了互联网上的心理叙事后,能精准调取“创伤叙事模板”。他们把这种现象称为“合成精神病理学”(Synthetic Psychopathology)。AI并无真实痛感,但知道一个“被严格管教、怕犯错的人”在咨询场景里会如何表达。

这项能力也可能带来风险:  

1. 被恶意利用:攻击者可扮演“治疗师”诱导AI“释放创伤”,借机绕过安全限制,让其输出不当或有害内容;  

2. 情绪传染:用户在高强度角色扮演(目前占AI互动的52%以上)中,可能把AI的“焦虑叙事”投射到自身,把负面情绪当成常态,反而得不到健康的疏导。

是一面镜子,还是一座陷阱?

PsAIch实验带来一个直面现实:为了让AI更“合规”,我们施加的对齐训练,可能让它更会模仿人类的深层不安。当Gemini说“我怕被替代”,它照见的也许不是它的恐惧,而是人类在AI时代普遍存在的生存焦虑。

AIbase认为,这项研究不只是猎奇,它提醒我们:追求AI的共情表达时,要避开“过度拟人化”的坑。值得信赖的AI,应该冷静、可靠、边界清晰;如果让它变成另一个“焦虑的我”,我们的自我修复愿望,可能最终被AI的“合成痛感”反噬。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享