4 月 9 日,美国华盛顿特区联邦上诉法院裁定维持国防部对 Anthropic 的“供应链风险”标记,拒绝其暂缓请求,这场围绕 AI 伦理红线与国家安全定义的法律战仍未终局。
(前情提要:法官支持 Anthropic,禁止美国防部以“供应链风险标签”惩罚 Claude )
(背景补充:Claude 是什么?费用、功能、Claude Code、Cowork 完整解析 — 2026 Anthropic 最详细指南 )
本文目录
Toggle
4月 9 日,美国华盛顿特区联邦上诉法院驳回 AI 巨头 Anthropic 的暂缓执行请求,裁定维持国防部将其列为“供应链风险”的决定。
法院的理由直接:政府在管理 AI 供应链方面的国家安全利益,优先于 Anthropic 所承受的财务损失。这个标记过去通常用于敌对国家的企业或潜在威胁实体,如今落在一家美国本土 AI 独角兽身上,象征意义不言而喻。
事件起源于 2025 年 7 月。Anthropic 与五角大楼签署一份 2 亿美元的合约,将旗下 AI 模型 Claude 集成至 Maven 智能系统,协助执行情报分析与目标识别任务。
然而,双方于 2025 年 9 月谈判破裂。Anthropic 坚持设立两条伦理红线:拒绝将 Claude 用于全自动武器系统,也拒绝用于国内监控。这两项立场与川普政府的期望产生根本冲突,川普随后通过社群媒体下令联邦机构停止使用 Anthropic 产品,并设下 6 个月淘汰期。
2025 年底至 2026 年初,国防部正式将 Anthropic 列入供应链风险名录。这项标记直接切断了 Anthropic 参与政府国防合约的资格。
目前这场法律战存在互相矛盾的裁决结果。旧金山联邦法院于 3 月底曾批准一项初步禁令,允许 Anthropic 继续与非国防政府机构合作;但 4 月 9 日华盛顿特区联邦上诉法院的裁决,则强化了国防部的封杀立场,拒绝给予任何暂缓空间。
这意味着 Anthropic 目前处于一种尴尬的法律夹缝:可以与部分政府单位合作,却被拒于国防合约之外。Anthropic 表示认为此案构成政治报复,且违反宪法保障,将持续提出上诉。加速审讯程序将成为下一阶段的关键。
不过根据电子工程专辑报道,尽管 Anthropic 在商业上遭受重大冲击,无法参与规模庞大的国防合约,但其坚持伦理立场的形象反而在一般用户市场获得正面回应,吸引更多对 AI 安全性有所顾虑的企业与个人用户。
这场判决的影响不仅止于 Anthropic 一家公司。它揭示了一个更深层的结构性矛盾:当 AI 开发者的伦理框架与政府对国家安全的定义产生冲突时,现行法律体系的天平目前倾向何方,已有初步答案。此案的终局裁决将对整个科技产业如何与政府协商 AI 使用边界,产生深远的参考意义。