人们一直担心 AI 会超越人类智慧,但新近的研究给出了一个耐人寻味的结论:像
研究团队用经典的博弈论测试“凯恩斯选美”(猜数字游戏)来检验 AI。这个实验要求参与者预判他人的选择才能取胜,理论上需要层层逻辑递进;可在人类实际参与中,往往难以达到理想化的推理深度。更有意思的是,AI 在与人类对局时会根据对手背景(比如大学生或专家)微调策略,但仍普遍倾向于认为人类会采取最理性的动作。这种“把对手想得太聪明”的偏差,让 AI 在预测真实人类决策时频频走偏。
这项研究提醒我们:尽管 AI 能很好地模拟人格特征,但在涉及真实人类行为的经济预测、策略建模等复杂应用中,如何让 AI更好地理解并校准人类的非理性,将成为后续技术发展的关键课题。
划重点:
-
🧠 认知存在偏差:
等模型常把人类当作完全理性的决策者,忽视了行为中的不理性因素。ChatGPT -
🎯 预测结果失准: 因为“想得过多”,AI 在博弈实验中常因高估对手的推理层级而错过更贴近现实的判断。
-
⚠️ 潜在应用风险: 专家提醒,这种认知偏差可能影响 AI 在经济建模等需要精准刻画人类行为的场景中的表现。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?