Judge Blocks Pentagon’s Effort to ‘Punish’ Anthropic by Labeling It a Supply Chain Risk
Judge Blocks Pentagon’s Effort to ‘Punish’ Anthropic by Labeling It a Supply Chain Risk
原文链接:https://www.cnn.com/2026/03/26/business/anthropic-pentagon-injunction-supply-chain-risk 裁决书:https://storage.courtlistener.com/recap/gov.uscourts.cand.465515/gov.uscourts.cand.465515.134.0.pdf 来源:CNN Business / CourtListener 法官:Rita Lin(美国加州北区联邦地区法院) 裁决日期:2026-03-26
速查卡
| 项目 | 内容 |
|---|---|
| 一句话总结 | 联邦法官正式授予 Anthropic 初步禁令,裁定五角大楼将其标记为”供应链风险”构成违宪的第一修正案报复 |
| 大白话版 | Anthropic 因为公开讨论限制 AI 军事用途而被五角大楼”拉黑”,法官说这违法了,下令五角大楼不准这么做 |
| 核心要点 | • 法官认定五角大楼行为构成”违宪第一修正案报复” • 初步禁令在诉讼期间保护 Anthropic 商业运营 • 为所有 AI 公司设定关键法律先例 |
| 价值评级 | A=必读级——改变 AI 行业与政府关系的里程碑裁决 |
| 适用场景 | AI 政策研究者、AI 公司法务团队、关注 AI 军事化的所有人 |
事件全貌
发生了什么?
2026 年 3 月 26 日(美东时间),美国加州北区联邦地区法院法官 Rita Lin 正式授予 Anthropic 初步禁令(preliminary injunction),阻止五角大楼(现更名为”战争部” Department of War / DoW)将 Anthropic 列为”供应链风险”实体。
在裁决书中,Lin 法官明确写道:“惩罚 Anthropic……是典型的非法第一修正案报复”(punishing Anthropic… is a classic case of unlawful First Amendment retaliation)。
时间线
- 2025 年中 — Anthropic 公开讨论限制其 AI 技术的军事用途,发布 Claude 使用政策
- 2025 年底 — Anthropic 与五角大楼就 Claude 军事应用的谈判破裂
- 2026 年初 — 国防部长 Pete Hegseth 主导将 Anthropic 标记为”供应链风险”
- 2026 年 3 月初 — Anthropic 向法院提起诉讼,寻求初步禁令
- 2026 年 3 月 24 日 — Rita Lin 法官主持听证会,称五角大楼行为”试图削弱”Anthropic
- 2026 年 3 月 26 日 — 法官正式授予初步禁令
关键人物/公司说了什么?
Rita Lin 法官: “惩罚 Anthropic 是典型的非法第一修正案报复。”
Anthropic: 否认会在战争中破坏 AI 工具,称政府的指控”荒谬”。Anthropic 还声称供应链风险标签已导致客户流失,商业运营受到实质性损害。
政府方: 辩称 Anthropic 可能”操纵 AI 软件使其不按预期运行”(manipulate AI software so it wouldn’t work as intended)——这一论点被法官实质性否定。
法律分析
裁决的法律基础
法官的裁决建立在第一修正案(言论自由)基础上,而非合同法或行政法。这一选择意义重大:
- 言论自由保护: Anthropic 公开讨论 AI 安全和军事用途限制,属于受第一修正案保护的言论
- 政府报复认定: 五角大楼对 Anthropic 的”供应链风险”标签被认定为针对合法言论的惩罚性报复
- 超出合同范围: 法官区分了两个层面——政府有权选择供应商(不受司法审查),但不能施加超出合同范围的惩罚性措施
初步禁令的法律标准
获得初步禁令需满足四个条件:
- 胜诉可能性 — 法官认定 Anthropic 在第一修正案主张上有很高的胜诉概率
- 不可弥补的损害 — 供应链风险标签已导致客户流失和商业机会损失
- 利益衡量 — Anthropic 的商业损害大于政府暂停标签的成本
- 公共利益 — 保护企业免受政府因言论而实施的报复符合公共利益
为什么选择第一修正案而非合同法?
这是裁决最关键的法律策略选择:
- 合同法路径: 仅适用于 Anthropic 与政府之间的具体合同关系,先例效力有限
- 第一修正案路径: 建立了普遍性原则——任何公司都有权公开讨论其技术的使用限制,政府不能因此进行报复
这使得裁决的影响远超 Anthropic 一家公司,为整个科技行业树立了法律屏障。
产业影响链
Anthropic 赢得初步禁令
├→ 直接影响:Anthropic 商业信心恢复 → 客户回流 → 估值支撑
├→ 行业先例:其他 AI 公司获得法律保护 → 更多公司可能公开表态军事限制
├→ 政策影响:政府对 AI 公司的强制力边界被明确 → 后续立法可能调整
└→ AI 安全:AI 安全倡导获得法律保护 → 负责任 AI 发展有了司法后盾
谁受益?
-
Anthropic: 直接受益——供应链风险标签被冻结,商业运营得到保护。此前因标签导致的客户流失有望回流。30B Series G)获得法律层面的支撑。
-
AI 安全社区: 首次获得司法层面的确认——公司有权对技术的军事用途说”不”,且不会因此受到政府惩罚。这对 Anthropic 长期坚持的”负责任 AI”定位是巨大的信用背书。
-
其他 AI 公司: OpenAI、Google DeepMind 等公司未来如果面临类似的政府压力,可以引用此先例进行法律抗辩。值得注意的是,OpenAI 和 Google DeepMind 员工已向法院提交了支持 Anthropic 的法庭之友(amicus curiae)意见书。
谁受损?
-
五角大楼/DoW: 法官的裁决实质上限制了军方通过行政手段(如供应链风险标签)向科技公司施压的能力。如果不上诉或上诉失败,这将成为长期约束。
-
Palantir 等军事 AI 公司: 虽然不直接受损,但 Anthropic 的胜诉可能鼓励更多 AI 公司拒绝军事合作,缩小军事 AI 的可用技术池。Palantir 在同一周的开发者大会上高调展示”AI 用于赢得战争”,与 Anthropic 形成鲜明对比。
对开发者/用户的影响
- 短期: 对 Claude API 用户无直接影响,Anthropic 的商业运营在禁令保护下正常进行
- 中期: Anthropic 可能更有信心地推进 AI 安全政策,包括在使用条款中明确军事限制
- 长期: 如果先例被确立,AI 产品的使用条款可能更加明确地限制军事/监控/武器等用途
竞争格局变化
变化前
AI 公司面临隐性压力:如果拒绝军事合作,可能面临政府的行政惩罚(如供应链风险标签、失去政府合同等)。这导致多数公司选择模糊立场。
变化后
法律先例为 AI 公司提供了司法保护。公司可以更自由地讨论和限制技术的军事用途。AI 安全不再只是公关叙事,而有了法律武器。
预期各方反应
- Anthropic — 可能加强 AI 安全政策的公开倡导,利用法律胜利巩固”负责任 AI 领导者”形象
- OpenAI — 可能重新评估其军事合作策略(此前已放宽部分限制)
- Google DeepMind — Jeff Dean 亲自参与法庭之友意见书,显示 Google 对 AI 安全立场的坚定支持
- 政府 — 可能在 30 天内上诉至第九巡回法院
历史脉络
AI 公司与军方关系的演变
2018 年 Google 员工抗议 Project Maven(军方无人机 AI 项目),导致 Google 退出该项目——这是科技行业首次大规模拒绝军事 AI 合作。
此后,行业态度出现分化:
- 拒绝军事化派: Anthropic 明确限制军事用途,建立了 AI 安全的品牌定位
- 拥抱军事化派: Palantir、Anduril、Shield AI 等公司积极发展军事 AI 业务
- 模糊立场派: OpenAI、Microsoft、Google 等公司采取灵活策略,在军事合作上保持选择性
Anthropic 案的裁决标志着这一分化的法律化——法院首次明确表示,AI 公司有权选择不参与军事应用,且这一选择受到宪法保护。
更长期的影响
此案可能成为”科技公司 vs 政府权力”系列案件的标志性先例。如果上诉法院维持裁决,将为 AI 治理的法律框架奠定重要基石。
批判性分析
被忽略的风险
- 上诉可能性: 初步禁令不是最终裁决。政府几乎肯定会上诉,第九巡回法院或最高法院的立场可能不同
- 政治风向变化: 行政权力对 AI 公司的压力不会因一纸禁令而消失。非正式施压(如延迟审批、暗示合作方风险)仍然可行
- 先例的局限性: 裁决基于第一修正案中的”报复”理论,如果政府换用其他法律工具(如国家安全例外),可能绕开此先例
乐观预期的合理性
主流科技媒体普遍将此视为”AI 安全社区的历史性胜利”。这一评价基本准确——法官的措辞非常强烈,裁决的法律基础(第一修正案)赋予了广泛的保护力度。HN 社区 288 points + 126 条评论的热度也说明了行业共识。
悲观预期的合理性
部分评论者担忧此裁决可能加剧 AI 军事化的政治争议,导致更激进的立法尝试(如强制性军事合作要求)。在当前的美国政治环境下,这种担忧并非杞人忧天。
独立观察
- 此案与英国 AI 安全研究所(AISI)的国际合作、EU AI Act 的监管框架形成全球性的 AI 治理叙事。不同国家/地区正在以不同方式回答”AI 应该服务于谁”这一根本问题。
- Anthropic 同时保持着 $380B 估值和”负责任 AI”定位——此案证明两者不矛盾。在商业层面,AI 安全承诺本身就是竞争优势。
- 最耐人寻味的细节:OpenAI 和 Google DeepMind 的员工(而非公司)提交了法庭之友意见书——这暗示即使在更灵活的公司内部,基层研究者对 AI 安全也有强烈立场。