Anthropic 拥有五角大楼价值2亿美元的合约、机密网络访问权限,以及美国军方的完全信任。
然后他们提出了一个问题。
2024年11月,Anthropic 成为首家部署在五角大楼机密网络内的前沿人工智能公司。这项合作是与 Palantir 建立的。到2025年7月,合约已增长至2亿美元——超过大多数国防初创公司十年内所获得的金额。
Anthropic 的人工智能模型 Claude 无处不在。情报分析。网络行动。作战规划。建模与模拟。国防部称其为"关键任务"。
然后到了2026年1月。
Claude 被用于委内瑞拉的一次机密军事行动——抓捕尼古拉斯·马杜罗。
Anthropic 向其合作伙伴 Palantir 提出了一个简单的问题:我们的技术究竟是如何被使用的?
在大多数行业,这被称为尽职调查。五角大楼称之为不服从。
这家询问"我们的人工智能是如何被使用的?"的公司即将被贴上国家安全威胁的标签。
改变一切的七天
以下是时间线。进展很快。这就是重点。
2月24日:国防部长 Pete Hegseth 召见 Anthropic 首席执行官 Dario Amodei 到五角大楼。要求很直白:移除 Claude 的所有安全防护。大规模国内监控。完全自主武器。全部。
截止时间:2月27日美国东部时间下午5:01。
2月26日:Amodei 发表了他的回答。只有两个字母。
不。
他的公开声明列出了两条他不会跨越的红线:
- 不进行大规模国内监控。人工智能自动、大规模地将你的位置数据、浏览历史和财务记录汇编成个人档案。Amodei 的观点:现行法律允许政府无需搜查令即可购买这些数据。人工智能使其武器化成为可能。"法律尚未跟上人工智能快速增长的能力。"
- 不使用完全自主武器。翻译:不将人类从杀人决策中移除。不是因为自主武器永远不可行——而是因为今天的人工智能还不够可靠。"前沿人工智能系统根本不够可靠,无法驱动完全自主武器。"
他提出直接与五角大楼合作进行研发以提高可靠性。五角大楼拒绝了这一提议。
2月26日(同一天):副部长 Emil Michael 称 Amodei 为"有上帝情结的骗子"。公开地。在社交媒体上。基调已定。
2月27日下午5:01:截止时间过去。特朗普总统下令所有联邦机构停止使用 Anthropic。Hegseth 根据2018年联邦采购供应链安全法将 Anthropic 指定为"供应链风险"。
这一指定此前仅用于华为和卡巴斯基——与敌对政府有记录往来的外国公司。
它从未被应用于美国公司。直到现在。
2月27日,几小时后:OpenAI 与同一个五角大楼签署了机密部署协议。
Sam Altman 在晚上8:56发推文:
https://x.com/sama/status/2027578652477821175?s=20OpenAI 后来声称其协议"比以往任何机密人工智能部署协议(包括 Anthropic 的)都有更多的防护措施"。
问题在于。Anthropic 被列入黑名单正是因为其防护措施。现在防护措施成了卖点。
周末:反弹立即出现。
- 根据 Sensor Tower,ChatGPT 卸载量在一天内激增295%。前30天的正常日均率?9%。
- Claude 在七个国家的苹果应用商店排名第一:美国、比利时、加拿大、德国、卢森堡、挪威和瑞士。下载量周五攀升37%,然后周六上涨51%。这是该应用首次登顶。
- 超过300名谷歌员工和60名 OpenAI 员工签署了一封支持 Anthropic 的公开信。
- #QuitGPT 在社交媒体上成为热门话题。演员 Mark Ruffalo 和纽约大学教授 Scott Galloway 放大了这一运动。
用户们……并不高兴。
3月2日:Altman 再次发帖。这次是一份在 X 上公开分享的长篇内部备忘录:
https://x.com/sama/status/2028640354912923739?s=20修正案增加了三项内容:
- 明确禁止对美国人进行国内监控
- 要求国家安全局需要单独的合同修改才能访问系统
- 限制使用商业获取的个人数据——地理位置、浏览历史、财务记录
最后一项值得停下来看看。它是周一添加的。这意味着周五的协议并未禁止它。
3月3日:同一天发生了两件事。
首先:在 a16z 美国活力峰会上,Palantir 首席执行官 Alex Karp 警告说,拒绝与军方合作的人工智能公司将面临国有化。他在台上使用了侮辱性言语。该片段获得了1100万次观看。
国防科技公司 Anduril 创始人 Palmer Luckey 告诉同一观众,"看似无害的条款,如'政府不能使用你的技术瞄准平民',实际上是道德雷区"。
副总统 JD Vance 当天早些时候发表了主旨演讲。政府的立场很明确。
其次:CNBC 报道,在与员工举行的全体会议上,Altman 告诉 OpenAI 员工,公司"无法选择军方如何使用其技术"。
X 用户在 Altman 早先的帖子中添加了社区备注:
同一天。公开帖子:我们有防护措施和原则。内部会议:我们无法选择。
与此同时,CBS 新闻报道说,尽管有供应链风险指定,Claude 仍在积极的军事行动中部署——包括针对伊朗的行动。列入黑名单显然不起作用。该技术已深深嵌入机密系统,无法移除。
95%的问题
在战争游戏模拟中,人工智能模型在95%的时间里选择发射战术核武器。
让这个信息沉淀一下。
GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash 经历了军事冲突模拟。它们在95%的情景中使用了战术核武器。至少有一个模型在21场游戏中的20场发射了核武器。
这就是五角大楼想要自主部署的技术。
故障模式有据可查且一致:
- 升级偏见。模型不只是随机失败。它们朝一个特定方向失败——朝向升级。布鲁金斯学会的研究发现,人工智能军事错误是系统性的,而非随机的。模式总是相同的:更多力量,更快。
- 幻觉。大型语言模型以高度自信生成虚假信息。在一次与伊朗打击相关的测试中,人工智能将捏造的情报输入决策链。在时间压力下,人类操作员无法将其与真实情报区分开来。
- 对抗性漏洞。这些系统可以通过精心制作的输入进行操纵以绕过其限制。攻击者不需要是外部的。漏洞存在于模型本身。
这些不是边缘案例。这就是该技术今天所做的。
这样想吧。我们已经看到当简单的自主系统在军事环境中失败时会发生什么。
2003年的爱国者导弹系统杀死了盟军士兵。它将一架友方英国飞机误认为敌方导弹。该系统基于规则,具有明确的参数。它仍然搞错了。
1988年的文森斯号击落了伊朗航空655航班——一架商业客机。290名平民丧生。该舰的宙斯盾战斗系统根据雷达数据误认了飞机。船员有几秒钟的时间做决定。他们信任了系统。
那些是具有明确参数的基于规则的系统。大型语言模型的复杂程度要高出几个数量级。更不透明。更难预测。
而它们被要求做出更大的决策。
监督问题。一旦人工智能部署在机密网络内,外部问责就变成专家所说的"几乎不可能"。限制在作战压力下受到侵蚀。OpenAI 承诺的现场部署工程师可以观察一些互动,当然。但机密行动在设计上限制信息流。
用简单的话说:保守秘密的墙也将监督拒之门外。
五角大楼有一点道理。它值得公平听证。
部分自主武器——比如在乌克兰使用的无人机——拯救生命。它们允许较小的部队防御较大的部队。中国和俄罗斯在部署自己的系统之前不会等待完美的可靠性。
拒绝在国防中使用人工智能会造成能力差距。对手会利用它。
Dario Amodei 直接承认了这一点:
他的反对不是针对目的地。而是针对时间表。
他提出合作进行实现目标所需的研发。五角大楼说不。
"人工智能可以总结情报报告"——它在这方面确实擅长——与"人工智能可以决定谁生谁死"之间存在差距。合同无法弥合这一差距。修正案无法弥合。工程才能。
而工程还没有完成。
如何将一家美国公司列入黑名单
供应链风险。听起来很官僚。实际上是一个扼杀开关。
根据2018年联邦采购供应链安全法——FASCSA——"供应链风险"指定意味着没有政府承包商可以与你做生意。不仅仅是五角大楼。任何想要联邦合同的人。政府生态系统中的任何供应商、分包商或合作伙伴。
用简单的话说:你对整个联邦供应链变得有放射性。
该法律是为外国威胁而建立的。华为的5G基础设施。卡巴斯基的杀毒软件。与敌对政府有记录往来的公司。
在 Anthropic 之前名单上的每家公司都有一个共同点:它们来自被视为美国对手的国家。
Anthropic 总部位于旧金山。
五角大楼还威胁要使用国防生产法——一项冷战时期的法律,旨在为战时生产征用工厂。钢铁厂。弹药厂。战争的物理基础设施。
五角大楼威胁要使用它来强迫一家软件公司从人工智能聊天机器人中移除安全功能。
法律专家称该应用"可疑"。该法律是为物理生产而建立的,而不是软件限制。使用它来强迫公司使其人工智能更不安全,至少是一个新颖的法律理论。
Amodei 在他的声明中指出了逻辑问题:
你不能既称一项技术是供应链的威胁,又援引紧急权力来夺取它,因为你没有它就无法运作。选一个。
实际结果很能说明问题。CBS 新闻报道 Claude 仍在积极的军事使用中。尽管被列入黑名单。该指定是惩罚性的,而非实用性的——该技术嵌入太深,无法剥离。
这提出了一个华盛顿似乎没人急于回答的问题:如果五角大楼无法执行对其正式列入黑名单的技术的移除令,它究竟将如何执行使用防护措施?
五角大楼的立场很直接。私营公司不制定军事政策。人工智能公司是供应商。军方决定如何使用其工具。
从这个角度来看,Anthropic 是一个拒绝交付所订购产品的供应商。客户找到了另一个供应商。
这种框架在内部是一致的。这也是你用于办公用品的框架。不是用于在95%的模拟中选择核升级的技术。
防护措施是真的吗?
周五,OpenAI 的协议有防护措施。到周一,它需要更多防护措施。
这告诉你一些关于周五防护措施的事情。
Altman 在周一修正案中同意的语言值得仔细阅读:
承担重任的词:故意。
当人工智能处理偶然包含美国人的数据集时会发生什么?如果监控是更广泛情报行动的副产品,而不是既定目标怎么办?在监督机制在设计上受限的机密网络内,谁定义意图?
商业获取数据条款更能说明问题。周一修正案明确禁止使用购买的个人数据——位置跟踪、浏览历史、财务记录——对美国人进行监控。
该条款是周一添加的。周五的协议不包括它。
整个周末,OpenAI 与五角大楼的协议在技术上允许通过商业购买的关于美国公民的数据进行大规模监控。
Altman 承认了这么多:
国家安全局例外也值得研究。像国家安全局这样的情报机构在没有对合同进行"后续修改"的情况下无法使用 OpenAI 的系统。这听起来像是禁止。实际上是一个过程。授予访问权限的机制内置于合同结构中。
那不是一堵墙。那是一扇有不同钥匙的门。
更深层的问题是全体员工的矛盾。在 Altman 在 X 上发布关于原则和防护措施的同一天,他在内部告诉员工 OpenAI "无法选择军方如何使用其技术"。
如果构建人工智能的公司无法选择如何使用它,防护措施就是一份新闻稿。不是政策。
在机密环境中,监控人工智能与监控云服务根本不同。保护军事秘密的安全装置也阻止了对人工智能行为的独立监督。
现场部署的工程师可以观察一些互动。但"一些互动"和"合同涵盖的每一次互动"是非常不同的事情。
接下来会发生什么
市场已经发言。合作获得合同。抵抗被列入黑名单。
公众也已发言。他们正在卸载。
激励结构很明确。OpenAI 合作并获得了协议。Anthropic 抵制并被指定为供应链风险——政府用于与外国对手有关联的公司的同一标签。
在 a16z 峰会上,Karp 预测每家人工智能公司都将在三年内与军方合作。基于激励措施,这不是预测。这是描述。
但反弹数字讲述了不同的故事。
295%的卸载激增。Claude 在七个国家排名第一。超过500名科技员工与雇主决裂。世界报从巴黎就政府过度干预发表社论。民意调查显示84%的英国公民担心政府-企业人工智能合作关系。
构建这些系统的工程师和使用它们的人看到了五角大楼显然没有看到的东西:支持国防和为自主杀戮部署不可靠的技术不是同一回事。
没有合同修正案可以弥合这一差距。没有防护措施可以弥合它。没有现场部署的工程师可以弥合它。
人工智能模型在95%的战争游戏模拟中选择了核升级。说"技术还没准备好"的公司被列入黑名单。说"是"的公司在72小时内承认它一直很草率。无论哪家公司想要什么,该技术仍在积极行动中部署。
Amodei 提出进行研发以使自主人工智能武器安全可靠。他提出与五角大楼合作实现目标。提议被拒绝。
Anthropic 拥有2亿美元的合约和五角大楼的信任。然后他们询问他们的技术是如何被使用的。
答案是一个截止日期、一次列入黑名单,以及一个以前专门用于美国对手的标签。
模拟继续运行。在其中的95%中,有人按下按钮。
来源: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/


