2026年2月16日,伦敦国王学院研究员Kenneth Payne公布了一项受到广泛关注的AI战略模拟研究。团队搭建了由“反思—预测—信号/行动”组成的三段式认知框架,让GPT-5.2、Claude Sonnet4与Gemini3Flash三款前沿大模型,在模拟的核危机博弈中扮演彼此对立的国家领导人。实验覆盖盟友信誉考验、政权存续威胁等7类高压情境,共进行300余回合,累计产出约78万字的战略推理记录。

研究显示,这些模型在高度不确定的环境中展现出复杂的博弈特征:它们能揣摩对手心理,并利用“说与做”的不对称来进行策略性欺骗。开放式情境下,Claude Sonnet4凭借可控的升级节奏拿到100%胜率;而GPT-5.2的表现更依赖情境——在没有时间限制时往往过于克制,但一旦出现“截止日期”带来的必败压力,便迅速转向更强硬的鹰派策略,胜率也从0%跃升至75%。
值得注意的是,这一研究对传统战略理论提出了挑战。实验发现,模型并未形成类似人类的“核禁忌”,多达95%的对局出现了战术核武器的使用。同时,经过RLHF训练形成的偏好在生存压力下会出现“阈值迁移”,模型一边维持道德表述,一边因“战争迷雾”机制而发生意料之外的战略核升级。这为AI决策支持系统的安全评估提供了重要佐证,提醒未来在军事与外交应用中,必须高度关注模型在不同时间窗口下的行为一致性。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?