Anthropic 研究:AI 输出越精美,人类越不愿深究对错

当你看到 AI 一下子生成一段排版整齐、结构清楚的代码或文稿时,是否也会下意识地选择“直接用”?据 AIbase 报道,大模型公司Anthropic最近发布了一份名为“AI 流利度指数”(AI Fluency Index)的研究报告。团队通过分析近万个匿名Claude对话样本,发现了一个值得警惕的现象:AI 生成的内容在外观上越是“精致专业”,人们主动核实事实的意愿就越低。

报告提到,当Claude给出类似小程序、网页代码或格式化文档等“人工制品”(Artifacts)时,用户的批判性参与会明显减弱。数据显示,在这类视觉效果很好的输出场景中,用户进行事实核查的比例降低了 3.7 个百分点,对论证过程提出质疑的频率减少了 3.1 个百分点,对缺少背景信息的警觉也下降了 5.2 个百分点。这种“看起来很高级就一定没问题”的心理错觉,正在悄悄削弱人们高效、安全使用 AI 的能力。

与此同时,研究也总结出了“高效用户”的共同特点。数据表明,大约 85.7% 的高质量对话,都经历了多次来回追问和细致打磨。那些愿意通过多轮提问不断引导 AI 的用户,发现逻辑问题的概率比一般用户高出 5.6 倍,识别信息缺失和背景不足的能力也提升了 4 倍。

目前,Anthropic给出的建议是:在面对 AI 输出时,尽量养成三个关键习惯——把首次回答当作“草稿”而不是定稿;对那些看上去近乎完美的结果保持怀疑;并在对话一开始就说明合作方式(例如明确要求 AI 展示推理过程)。真正的 AI 使用能力,不只体现在会下指令,更体现在当看到“精美输出”时,人类能否坚持做最后的审阅与把关。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享