五角大楼将Anthropic认定为供应链风险,AI圈掀起震动

2026年3月5日,美国国防部宣布把人工智能独角兽Anthropic及其产品列为“供应链风险”,这一前所未有的决定意味着顶尖AI实验室与政府军事需求之间的矛盾全面升级。

据彭博社援引国防部高层消息称,此次决定源于双方持续数周的拉锯:Anthropic首席执行官达里奥·阿莫迪明确拒绝军方把其AI系统用于对美国公民的大规模监控,或驱动缺少人类把关的全自主武器;而五角大楼则坚持认为,私人承包商不应对军方使用前沿技术设限。

Claude

此次定性对行业格局造成强烈冲击,因为“供应链风险”标签过去通常只对外国对手使用。受此影响,所有与五角大楼合作的机构都必须证明其未采用Claude系列模型。目前,美军在伊朗等中东地区的军事行动高度依赖集成在Palantir Maven系统中的Claude模型来进行作战数据管理,该禁令可能迫使现有军事智能体系重新调整。

与Anthropic的坚持不同,OpenAI已与国防部达成协议,允许军方将其系统用于“所有合法用途”,其总裁格雷格·布罗克曼近期还向相关政治组织捐赠2500万美元。对此,阿莫迪批评国防部的举动带有“报复性”,并暗示这与他拒绝支持特定政治立场有关。

目前,OpenAI与谷歌内部数百名员工已发起抗议,呼吁撤销这类认定。此事不仅暴露AI企业在军事伦理与商业准入之间的艰难抉择,也预示前沿AI治理正走向由政府意志主导的强力监管时代,科技公司的自主权正面临严峻挑战。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享