BitcoinWorld
Claude AI 悖论:美国军方在伊朗冲突中部署 Anthropic 系统,国防承包商纷纷撤离
华盛顿特区 — 2025年6月9日:国防技术领域出现了一个引人注目的悖论,美国军方在与伊朗持续冲突中积极部署 Anthropic 的 Claude 人工智能系统用于目标决策,与此同时,主要国防承包商和分包商却迅速放弃该平台。这种矛盾局面源于重叠的政府限制和不断演变的国防政策,在整个军工复合体中造成了操作混乱。
根据最近的报道,美国军方继续利用 Anthropic 的 Claude AI 系统对伊朗阵地进行关键目标打击行动。具体而言,五角大楼官员结合 Palantir 的 Maven 系统使用该人工智能平台来规划和执行空袭。这些集成系统建议数百个潜在目标,发布精确的位置坐标,并根据战略重要性排列目标优先级。
《华盛顿邮报》的报道揭示该系统在持续军事行动期间具有"实时目标定位和目标优先级排序"功能。因此,尽管围绕其军事应用的争议不断增加,Anthropic 的技术仍直接支持战斗决策。即使政治指令旨在限制其在政府机构中的部署,该系统的使用仍在继续。
特朗普总统最近指示民用机构立即停止使用 Anthropic 产品。然而,国防部收到了不同的指示。国防官员获得了六个月的时间来结束与该 AI 公司的运营。这种相互冲突的指导在整个国防部门造成了操作混乱。
此外,这些限制的时机特别成问题。在总统指令发布后的第二天,美国和以色列军队对德黑兰发动了突然袭击。这一军事行动在政府能够全面实施其政策变更之前就引发了持续冲突。结果是在 Anthropic 模型支持积极战斗的同时面临潜在禁令的操作现实。
本周,主要国防行业参与者积极用竞争对手的 AI 系统取代 Anthropic 模型。根据路透社报道,洛克希德·马丁公司引领这一转型。其他国防承包商也纷纷远离 Claude AI 平台。这种企业迁移在国防供应链中造成了重大破坏。
此外,众多分包商在 AI 采购方面面临艰难决策。J2 Ventures 的管理合伙人告诉 CNBC,十家投资组合公司"已经放弃在国防用例中使用 Claude"。这些公司现在正积极寻求用替代人工智能解决方案来取代该服务。因此,国防技术部门经历了快速重组。
| 组织 | 采取的行动 | 时间表 |
|---|---|---|
| 洛克希德·马丁 | 用竞争对手取代 Claude | 本周 |
| J2 Ventures 投资组合公司 | 10家公司放弃 Claude | 积极更换流程 |
| 国防部 | 继续使用,6个月结束期 | 持续冲突行动 |
| 民用机构 | 立即停止使用 | 总统指令 |
国防部长 Pete Hegseth 承诺将 Anthropic 指定为供应链风险。然而,目前尚未采取任何朝向该指定的官方步骤。因此,目前没有法律障碍阻止 Claude 系统的军事使用。这种监管不确定性为国防规划者和承包商都带来了操作挑战。
这一潜在指定可能会引发 Anthropic 及其支持者的激烈法律挑战。法律专家预计会出现关于人工智能采购和国家安全要求的复杂诉讼。与此同时,军事行动继续依赖可能很快面临正式限制的技术。
这种情况凸显了军事人工智能采用中的根本性紧张关系。当前争议中出现了几个关键问题:
此外,承包商的快速撤离显示了政策不确定性如何能够破坏国防技术市场的稳定。当监管基础意外转变时,公司无法维持长期发展路线图。这种不稳定性可能最终阻碍军事技术进步。
以往的国防技术争议为理解当前事件提供了相关背景。五角大楼的 Maven 项目在人工智能伦理方面面临类似审查。此外,谷歌员工在2018年抗议该公司的军事 AI 工作,导致政策变更。这些历史先例说明了国防应用中技术能力与伦理考虑之间反复出现的紧张关系。
此外,当前情况呼应了关于具有民用和军事应用的"双重用途"技术的更广泛辩论。为商业目的开发的人工智能系统越来越多地找到军事应用,造成了复杂的监管挑战。随着 AI 能力在各个领域的发展,这一趋势可能会继续。
像 Claude 这样的现代军事人工智能系统展示了卓越的技术能力。这些系统处理大量情报数据以识别潜在目标。它们同时分析卫星图像、信号情报和人类情报报告。此外,它们根据多个战略因素对目标进行优先排序,包括:
这些系统以越来越高的自主性运作,尽管人类操作员保持最终决策权。Claude 与 Palantir 的 Maven 系统的集成代表了当前最先进的军事 AI 部署。一旦系统投入运营,这种技术复杂性使得更换变得具有挑战性。
国防承包商在远离 Claude 的同时探索多种替代人工智能解决方案。几家公司为军事应用开发内部 AI 能力。其他公司与专门专注于政府合同的专业国防 AI 公司合作。这种多元化战略旨在减少对任何单一 AI 提供商的依赖。
与此同时,更广泛的 AI 行业密切关注这些发展。科技公司必须决定是否在潜在争议的情况下追求国防合同。一些公司制定了反对军事工作的明确政策,而另一些公司则为政府业务创建了专门部门。这些战略决策将在未来几年塑造国防技术发展。
全球对美国军事 AI 部署的反应存在显著差异。盟国监测这些发展以获得对其自身国防技术战略的见解。敌对国家可能会加速其军事 AI 计划作为回应。国际社会继续就自主武器系统的适当治理框架进行辩论。
联合国关于致命性自主武器系统的讨论在这些发展中获得了新的紧迫性。由于国家安全优先事项的差异,建立国际规范的外交努力面临挑战。然而,大多数国家认识到需要某种形式的军事 AI 应用治理框架。
Claude AI 悖论揭示了现代国防技术采用中的根本性紧张关系。美国军方继续在伊朗冲突中部署 Anthropic 的系统进行目标决策,而国防承包商则迅速放弃该平台。这种矛盾局面源于重叠的政府限制和不断演变的国防政策。国防部长 Hegseth 潜在的供应链风险指定可能引发法律挑战,而军事行动继续依赖该技术。最终,这一争议凸显了在军事人工智能应用中平衡技术能力、伦理考虑和政策合规方面的更广泛挑战。随着这些复杂问题的演变,国防技术部门可能会面临持续动荡。
问题1: 如果有限制,为什么美国军方仍在使用 Claude AI?
军方获得了六个月的结束期,而民用机构则面临立即限制。与伊朗的持续冲突在这一过渡期间为继续使用创造了操作必要性。
问题2: 哪些国防承包商正在更换 Claude AI?
洛克希德·马丁领导了远离 Anthropic 平台的转型,众多其他承包商和至少十家 J2 Ventures 投资组合公司也在遵循类似路径。
问题3: "供应链风险指定"对 Anthropic 意味着什么?
该指定将正式将 Anthropic 确定为国防供应链中的潜在安全风险,可能禁止未来的国防部合同并为现有协议带来法律挑战。
问题4: Claude AI 如何实际帮助军事目标定位?
该系统处理情报数据以建议目标,提供精确坐标,并根据战略重要性对目标进行优先排序,与 Palantir 的 Maven 系统一起工作以提供实时目标定位支持。
问题5: 使用 AI 进行军事目标定位存在哪些伦理担忧?
担忧包括在生死决策中减少人类监督、目标选择中的算法偏见、错误责任以及可能在没有有意义的人类控制下运作的自主武器系统的更广泛发展。
本文 Claude AI 悖论:美国军方在伊朗冲突中部署 Anthropic 系统,国防承包商纷纷撤离 首次出现在 BitcoinWorld。


