决裂升级!Anthropic 起诉美政府:Claude 遭五角大楼“拉黑”?

曾被五角大楼视作最可靠的 AI 合作方,如今却被迅速打入“冷宫”。当地时间 3 月 9 日,人工智能初创公司Anthropic 正式向加州联邦地区法院提起诉讼,对特朗普政府把其列入供应链“黑名单”的史无前例决定发起回击。这场官司不仅牵动一家公司的命运,也把 AI 技术在军事应用与伦理红线之间的激烈博弈推到台前。

从“唯一可用”到“全面封禁”

就在不久之前,Anthropic还是美国国防部的座上宾。其旗舰模型 Claude 一度是唯一被允许接入机密网络的 AI,外界甚至称其曾协助制定针对特定目标的打击方案。然而,随着续约谈判陷入僵局,双方的“蜜月期”戛然而止。

上周四,Anthropic确认已被正式认定为“供应链风险”。这种带有强烈惩罚意味的标签,过去通常只加在敌对国家企业身上。这意味着,任何国防承包商在与五角大楼合作时,都必须证明自己没有使用Claude

争议核心:AI 能不能有“自主意识”?

这场决裂的导火索,源于对 AI 模型使用权限的僵局:

  • 国防部立场: 军方要求对 AI 模型拥有“无限制访问权”,认为供应商对关键能力的任何限制,都可能危及前线士兵的安全。

  • Anthropic 坚持: 作为一家重视 AI 安全的公司,Anthropic希望拿到书面保证,确保其模型不会被用于完全自主的杀伤性武器系统,或用于针对国内的大规模监控。

这场价值观的冲突最终演变为行政层面的强硬施压。特朗普甚至在社交媒体上公开发难,称Anthropic是“失控的激进左翼 AI 公司”。

数亿美元营收命悬一线

在起诉书中,Anthropic直言这一举动“史无前例且违法”。除了数亿美元的政府合同被取消,名誉受损也让大量私营机构的订单陷入不确定。公司已请求法院发布临时禁令,撤销这一“供应链风险”认定,防止损害进一步扩大。

Anthropic 发言人强调,寻求司法审查并非背弃国家安全,而是为了保护业务与合作伙伴的合法权益。

顶尖大模型遭遇强硬的行政权力,这不只是对经济损失的追索,更是一场关于 AI 伦理边界的终极审判。战场上,究竟是人类指挥官拍板,还是 AI 的安全协议定规?这场诉讼的结果,或将为全球 AI 军事化的未来定下基调。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享