一家领先的人工智能实验室与美国国防机构之间日益加剧的紧张局势已升级为一场围绕anthropic ai和战场使用的高风险冲突。
Anthropic拒绝了美国国防部要求其移除系统中关键AI安全限制的要求,尽管其2亿美元的合约现在处于危险之中。该公司明确表示不会在与国防部关于其先进模型如何在军事网络中部署的争议中退让。
这家初创公司的竞争对手OpenAI、Google和xAI在2023年获得了高达2亿美元的类似国防部奖励。然而,这些公司同意让五角大楼在军方的非机密环境中将其系统用于所有合法任务,赋予政府更广泛的操作灵活性。
相比之下,Anthropic在7月与国防部签署了自己的2亿美元协议,成为首家将其模型直接嵌入机密网络任务工作流程的AI实验室。此外,其工具被整合到敏感的国防行动中,使该公司处于美国国家安全AI建设的中心。
与五角大楼官员的谈判在最近几周变得越来越紧张。一位熟悉谈判的人士表示,这种摩擦"可以追溯到几个月前",早在Claude被用于与扣押委内瑞拉总统尼古拉斯·马杜罗有关的美国行动公开之前。
冲突的核心是军事当局可以在多大程度上将强大的AI模型推向监视和自主化。Anthropic正在寻求具有约束力的保证,即其技术不会被用于完全自主武器或对美国人进行大规模国内监视,而国防部希望避免这些限制。
也就是说,这不是一个狭隘的商业分歧,而是一场备受瞩目的AI安全保障争议,对未来战场自动化有直接影响。五角大楼坚持最大的法律自由度,而Anthropic则认为目前的系统还不能被信任来大规模处理生死决策。
在一份详细声明中,首席执行官达里奥·阿莫代警告说,在"少数情况下",人工智能可能会"破坏而非捍卫民主价值观"。他强调,一些应用"完全超出了当今技术能够安全可靠地做到的范围",突显了在复杂军事行动中被滥用的风险。
在扩展监视担忧方面,阿莫代认为,强大的系统现在使"自动且大规模地将这些分散的、单独看来无害的数据组装成任何人生活的全面图景"成为可能。此外,他警告说,这种能力如果向内部使用,可能会从根本上重塑公民与国家之间的关系。
阿莫代重申,Anthropic支持将AI用于合法的外国情报收集。然而,他补充说,"将这些系统用于大规模国内监视与民主价值观不相容",在海外情报和对美国人的内部监控之间划定了明确的道德界限。
这场权力斗争在周二阿莫代与国防部长皮特·赫格塞斯在五角大楼的会议上加剧。赫格塞斯威胁将Anthropic列为"供应链风险"或援引国防生产法来强制遵守。在周三晚上,国防部交付了它所称的"最后和最终报价",要求该公司在周五东部时间下午5:01之前回复。
一位Anthropic女发言人承认在周三收到了修订后的合同语言,但表示这代表"几乎没有进展"。据她说,被框架为妥协的新措辞与法律措辞配对,实际上将允许关键保障措施"随意被忽视",削弱了所述的保护措施。
针对不断增加的压力,阿莫代说:"国防部已表示他们只会与同意'任何合法用途'并在上述情况下移除保障措施的AI公司签约。"他补充说,官员们威胁要将Anthropic从他们的系统中剔除,如果拒绝就将该公司列为"供应链风险";然而,他坚持说,"我们无法凭良心同意他们的要求。"
对五角大楼来说,问题的框架是不同的。首席发言人肖恩·帕内尔周四表示,国防部"没有兴趣"使用Anthropic的系统来制造完全自主武器或对美国人进行大规模监视,并指出这种做法是非法的。相反,他坚持认为该部门只是希望该公司允许将其技术用于"所有合法目的",并将此描述为"简单的、常识性的要求"。
这场争议在高层也变得个人化。周四晚上,美国国防副部长埃米尔·迈克尔在X上攻击阿莫代,声称这位高管"除了试图亲自控制美国军队之外别无所求"。迈克尔更进一步写道:"遗憾的是,达里奥·阿莫代是个骗子,而且有上帝情结。"
然而,Anthropic已获得科技行业部分人士的重大支持。在一封公开信中,来自Google和OpenAI的200多名员工公开支持该公司的立场。此外,一位前国防部官员告诉BBC,赫格塞斯使用"供应链风险"标签的理由似乎"极其站不住脚",引发了对五角大楼案件稳健性的质疑。
这场对抗也成为关于AI伦理军事政策更广泛辩论的试金石。AI研究人员和公民自由倡导者正在密切关注,将此案视为对国防机构在多大程度上可以推动私人实验室放松对先进系统内置限制的早期测试。
尽管言辞不断升级,阿莫代强调他"深信使用AI捍卫美国的存在重要性"。他将这个问题定义为负责任部署的问题,而非反对国防,认为美国AI能力的长期可信度取决于维护民主规范。
Anthropic的一位代表表示,该组织仍然"准备继续对话,并致力于为国防部和美国战士维持运营连续性"。然而,随着五角大楼最后期限的倒计时和供应链指定的威胁仍在台面上,双方都面临着在不破坏关键创新的情况下解决僵局的压力。
最终,Anthropic与五角大楼关于保障措施、监视和自主化的冲突已成为军事AI治理的一个决定性早期案例。其结果可能会塑造未来anthropic ai模型和竞争系统如何在美国国防行动中签约、受限和部署。


