由Anthropic在声明中确认的"供应链风险"标签立即生效,禁止政府承包商使用Anthropic的技术由Anthropic在声明中确认的"供应链风险"标签立即生效,禁止政府承包商使用Anthropic的技术

五角大楼将Anthropic列为供应链风险

2026/03/06 12:51
阅读时长 6 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 [email protected] 联系我们。

五角大楼于3月5日星期四对人工智能实验室Anthropic正式施加供应链风险指定,限制了一项据消息人士称正被用于伊朗军事行动的技术的使用。

Anthropic在一份声明中确认,"供应链风险"标签立即生效,并禁止政府承包商在为美国军方工作时使用Anthropic的技术。

但首席执行官Dario Amodei在声明中写道,公司仍可在与五角大楼无关的其他项目中使用Anthropic的Claude。他表示,该指定具有"狭窄的范围",限制仅适用于在五角大楼合同中使用Anthropic人工智能。

"它明确仅适用于客户直接作为与战争部合同一部分使用Claude的情况,而非所有拥有此类合同的客户使用Claude的情况。"

这项风险指定是在该公司坚持保障措施引发数月争议之后做出的,国防部(特朗普政府称其为战争部)表示这些措施过于严格。Amodei在声明中重申,公司将在法庭上挑战这一指定。

Amodei在周四的声明中表示,近日Anthropic和五角大楼讨论了五角大楼停止使用Claude的可能计划。他补充说,双方已讨论Anthropic如何在不拆除其保障措施的情况下继续与军方合作。

然而,五角大楼首席技术官Emil Michael在周四晚间于X上发帖称,国防部目前没有与Anthropic进行积极谈判。

Amodei还为科技新闻网站The Information周三发布的一份内部备忘录道歉。在上周五撰写的这份备忘录中,Amodei表示五角大楼官员不喜欢该公司,部分原因是"我们没有对特朗普给予独裁者式的赞美"。

这份内部备忘录的发布正值Anthropic的投资者争相控制该公司与五角大楼闹翻所造成的损害。

国防部没有立即回应置评请求。

据知情人士透露,这一行动代表了美国对一家比竞争对手更早与五角大楼合作的美国科技公司的非凡指责。此举发生之际,该部门继续依赖Anthropic的技术为军事行动提供支持,包括在伊朗的行动。

Claude很可能被用于分析情报和协助行动规划。

微软发言人表示,该公司的律师研究了这一指定并得出结论:"Anthropic产品,包括Claude,可以继续通过M365、GitHub和微软AI Foundry等平台向我们的客户提供——战争部除外。"

该发言人补充说,微软可以继续与Anthropic在非国防相关项目上合作。

亚马逊作为Anthropic的投资者和该公司Claude模型的重要客户,在正常营业时间外未立即回应置评请求。

据路透社早前报道,Palantir的Maven智能系统——一个为军方提供情报分析和武器瞄准的软件平台——使用了多个使用Anthropic的Claude代码构建的提示和工作流程。

Anthropic在争取美国国家安全官员方面是其竞争对手中最积极的。但该公司与五角大楼在军方如何在战场上使用其技术的问题上已争执数月。这一冲突在今年早些时候爆发为公众视野。

Anthropic拒绝在禁止其Claude人工智能为自主武器和美国大规模监控提供动力的问题上让步。五角大楼则反击称,只要符合美国法律,它应该能够根据需要使用这项技术。

"供应链风险"标签现在赋予Anthropic一个华盛顿迄今通常用于外国对手的地位。美国曾采取类似行动,将中国科技巨头华为从五角大楼的供应链中移除。– Rappler.com

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。