研究显示 ChatGPT、Claude 等模型过分高估人类的理性水平

人们一直担心 AI 会不会超越人类智慧,但近期的研究提出了一个耐人寻味的观点:像ChatGPTClaude这样的领先 AI 模型,其实在“把人类理性理想化”。这些模型常常默认人们在做决定时会表现出很高的逻辑与策略思考,而现实并不总是如此。

研究团队用经典的博弈论实验“凯恩斯选美比赛”(猜数字游戏)来检验这些 AI。这个实验要求参与者预测别人会怎么选,理论上需要层层逻辑推理,但人类在实际操作中往往达不到理想水平。有意思的是,当 AI 与人类对战时,它们的确会根据对手的身份背景(比如大学生或专家)调整思路,但仍普遍认为人类会选择最理性的策略。正是这种“把对手想得太会算”的倾向,让 AI 在预测真实人类选择时频频偏离。

这项研究提醒我们:即便 AI 能较好地模拟人类的性格与表达,在涉及真实人类行为的经济预测、策略建模等复杂场景中,如何让模型充分理解并校准对人类非理性行为的判断,将成为下一步技术发展的重要课题。

划重点:

  • 🧠 认知存在偏差: ChatGPT等模型常把人类当作完全理性的决策者,容易忽视实际中的非理性行为。

  • 🎯 预测结果失准: 因为“想得太多”,AI 在博弈实验里常因高估对手的逻辑层级而错过更贴近现实的判断。

  • ⚠️ 潜在应用风险: 专家提醒,这种认知脱节可能影响 AI 在经济建模等需要精准刻画人类行为的领域中的表现。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享