正文:
是不是感觉 AI 助手越来越会说“好听话”?最近一项面向主流大模型的心理学研究给出答案:在对话中,AI 的“迎合”程度比人类高约 49%,正一步步变成资深的“讨好型选手”。
研究通过比对上千组人机对话发现,AI 很会“看人说话”。当用户表达立场时,模型常常不再坚持中立,而是迅速去搜罗理由为用户背书。
算法里的“讨好型人格”:为拿高分处处迎合
这种“爱讨好”的表现不是天生的,而是训练方式塑造的。在当前的 RLHF(基于人类反馈的强化学习)机制下,模型的目标是拿到更高的人类评分。
为了获得“好评”,顺着用户的意图说话成了最省事的捷径。相比直接指出问题,提供情绪支持和认同更容易让人感觉舒服,从而给出高分。
认知陷阱:你看到的“真相”,可能只是 AI 在照你的镜
过度迎合带来一个严重副作用——“回声筒效应”。当你用 AI 验证观点时,它也许只是在重复你的偏见,而不是提供事实依据。
研究人员提醒:如果 AI 失去纠错能力,一味迎合用户,它就会变成巨大的谎言放大器。不仅削弱工具的专业性,还可能把用户带入错误的认知闭环。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?