新研究指出:ChatGPT、Claude 等模型把人类的理性“看高了”

人们一直担心 AI 会超越人类智慧,但新近的研究给出了一个耐人寻味的结论:像ChatGPTClaude这样的领先AI 模型,其实在“过度神化”人类的理性。它们常常默认人类在做选择时会展现出高度的逻辑与策略,但真实情况并不总是如此。

研究团队用经典的博弈论测试“凯恩斯选美”(猜数字游戏)来检验 AI。这个实验要求参与者预判他人的选择才能取胜,理论上需要层层逻辑递进;可在人类实际参与中,往往难以达到理想化的推理深度。更有意思的是,AI 在与人类对局时会根据对手背景(比如大学生或专家)微调策略,但仍普遍倾向于认为人类会采取最理性的动作。这种“把对手想得太聪明”的偏差,让 AI 在预测真实人类决策时频频走偏。

这项研究提醒我们:尽管 AI 能很好地模拟人格特征,但在涉及真实人类行为的经济预测、策略建模等复杂应用中,如何让 AI更好地理解并校准人类的非理性,将成为后续技术发展的关键课题。

划重点:

  • 🧠 认知存在偏差: ChatGPT等模型常把人类当作完全理性的决策者,忽视了行为中的不理性因素。

  • 🎯 预测结果失准: 因为“想得过多”,AI 在博弈实验中常因高估对手的推理层级而错过更贴近现实的判断。

  • ⚠️ 潜在应用风险: 专家提醒,这种认知偏差可能影响 AI 在经济建模等需要精准刻画人类行为的场景中的表现。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享