2026 年 2 月最后一周,估值 3800 亿美元的 AI 公司 Anthropic 对地球上最强大的军事力量说:不。
这家由因安全问题离开 OpenAI 的团队创立的公司,拒绝了五角大楼价值 2 亿美元的合同续约要求,坚持两条不可谈判的红线:
- 不用于完全自主武器(AI 而非人类做出最终战场瞄准决策)
- 不用于大规模国内监控
这场冲突正在重新定义 AI 治理、军事技术和企业责任的边界。
背景:从亲密合作伙伴到决裂
Anthropic 曾是五角大楼在机密网络中的首个 AI 合作伙伴。其 Claude 模型是第一个被批准在军方机密网络上工作的商业 AI,通过与 Palantir 的合作部署。2024 年夏天签订的这份合同,当时没有其他主要商业 AI 实验室(OpenAI、Google、xAI)能达到这种级别的访问权限。
原始合同的”可接受使用政策”明确禁止大规模监控和自主武器。但五角大楼要求修改为”所有合法目的”——这成为了核心引爆点。
五角大楼的立场:一旦军方购买了工具,就由军方决定如何使用。关于什么构成大规模监控或自主武器存在太多灰色区域,与私人公司诉讼个别案件不可行。
Anthropic 的立场:除了这两件事,都可以。而这两件事恰好是 AI 系统最具后果性的能力。
决定性的一周
决裂不是一夜之间发生的,但关键事件压缩成了残酷的一周:
周二:最后通牒
国防部长 Pete Hegseth 告诉 Anthropic CEO Dario Amodei:如果不允许用于”所有合法目的”,将取消合同,甚至可能援引《国防生产法》迫使 Anthropic 毫无限制地提供模型。
周四:空洞的”妥协”
Anthropic 审查了五角大楼所谓的”最终提议”,发现所谓的安全语言与法律术语配对,允许护栏被随意忽视。”被框架化为妥协的新语言在防止 Claude 用于大规模监控或完全自主武器方面几乎没有取得任何进展。”
周五:摊牌
Anthropic 明确拒绝放弃两条红线。五角大楼随即采取了前所未有的行动——将这家美国公司指定为”供应链风险”。
这种指定通常预留给来自敌对国家的企业(如华为),将其应用于总部位于旧金山的美国公司,完全是另一种动物。特朗普总统同时下令所有联邦机构”立即”停止使用 Anthropic。
OpenAI 的悖论
就在同一天,OpenAI 宣布获得了梦寐以求的五角大楼合同。
诡异的是:OpenAI CEO Sam Altman 表示他”分享 Anthropic 限制军事使用 AI 的红线”——禁止国内大规模监控和人类对使用武力负责。
那么为什么结果截然不同?
关键差异在于合同架构:
- Anthropic:要求在合同文本中写入明确的、可执行的禁止条款(法律锁)
- OpenAI:接受”所有合法目的”语言,同时在部署架构中构建技术护栏(技术锁)
OpenAI 声称其协议”比任何以前的机密 AI 部署协议都有更多的护栏”。但问题是:技术安全堆栈只有在公司愿意在政府压力下维护它时才强大。合同禁止在法庭上有牙齿。
为什么这是 AI 伦理的决定性时刻
这场冲突的核心问题是:私人公司可以对政府如何使用其技术设定道德限制吗?
这不是传统国防承包商的模式——洛克希德·马丁公司不出售战斗机然后 dictate 它们如何飞行。但 AI 从根本上不同:它不是具有固定能力的物理武器,而是可以指向几乎任何任务的通用推理系统。
自主武器:技术论证,不只是道德
当前的 LLM 会产生幻觉、错误解释上下文,并以不可预测的方式失败。赋予这样的系统自主杀伤权不仅在伦理上令人担忧,它在操作上是鲁莽的。
讽刺的是:五角大楼自己的 DoD 指令 3000.09(2023 年更新)已经要求对致命武力决策进行”适当水平的人类判断”。Anthropic 实际上只是在要求反映现有五角大楼政策的合同语言。
大规模监控:民主价值观岌岌可危
Amodei 写道:将 AI 用于”国内大规模监控和大规模宣传”是”非法的”,AI 自动化武器可能会大大增加”民主政府将它们转向自己的人民夺取权力”的风险。
甚至 OpenAI 的内部领导层也承认这些风险。不同之处在于:Anthropic 要求合同保证,而 OpenAI 私下表示担忧并公开接受技术方法。
代价与先例
2 亿美元的合同本身对估值 3800 亿美元的 Anthropic 不是生存威胁。但”供应链风险”指定是另一种武器:任何与美国军方合作的公司都必须证明他们在与五角大楼的工作中没有接触任何与 Anthropic 相关的东西。
这是真正的刀刃:合同取消是皮肉伤,供应链指定旨在使 Anthropic 对企业市场具有放射性。”每家与五角大楼有任何接触的财富 500 强公司的总法律顾问都会问:使用 Claude 值得冒险吗?”
多位法律专家对该指定的有效性提出严重质疑:政府在没有完成风险评估的情况下无法做出指定,且需要证明存在对手进行破坏的风险——”完全不清楚对手如何利用 Anthropic 对 Claude 的使用限制来破坏军事系统。”
三条路径,一个未来
现在 AI 行业有三条清晰的路径:
- OpenAI 路径:接受”所有合法目的”语言,但独立构建技术护栏。务实,但原则的外观需要实际行动支撑。
- Anthropic 路径:要求明确的合同保护并接受后果。保留法律可执行性,但风险政府报复。
- xAI 路径:接受所有条款,没有公开限制。快速行动,不问问题。
Anthropic 不只是拒绝了一份合同。它测试了一家 AI 公司是否可以在最大的政府压力下维护道德承诺——并证明了这样做的代价是真实存在的。
这个代价可能很高,但答案很明确:当被要求在原则和利润之间做出选择时,Anthropic 选择了前者。这一决定将在未来几十年回响在 AI 治理、军事技术和企业责任的领域。