人们一直担心 AI 会不会超越人类智慧,但近期的研究提出了一个耐人寻味的观点:像
研究团队用经典的博弈论实验“凯恩斯选美比赛”(猜数字游戏)来检验这些 AI。这个实验要求参与者预测别人会怎么选,理论上需要层层逻辑推理,但人类在实际操作中往往达不到理想水平。有意思的是,当 AI 与人类对战时,它们的确会根据对手的身份背景(比如大学生或专家)调整思路,但仍普遍认为人类会选择最理性的策略。正是这种“把对手想得太会算”的倾向,让 AI 在预测真实人类选择时频频偏离。
这项研究提醒我们:即便 AI 能较好地模拟人类的性格与表达,在涉及真实人类行为的经济预测、策略建模等复杂场景中,如何让模型充分理解并校准对人类非理性行为的判断,将成为下一步技术发展的重要课题。
划重点:
-
🧠 认知存在偏差:
等模型常把人类当作完全理性的决策者,容易忽视实际中的非理性行为。ChatGPT -
🎯 预测结果失准: 因为“想得太多”,AI 在博弈实验里常因高估对手的逻辑层级而错过更贴近现实的判断。
-
⚠️ 潜在应用风险: 专家提醒,这种认知脱节可能影响 AI 在经济建模等需要精准刻画人类行为的领域中的表现。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?