O Pentágono aplicou formalmente uma designação de risco de cadeia de abastecimento ao laboratório de inteligência artificial Anthropic na quinta-feira, 5 de março, limitando o uso de uma tecnologia que, segundo uma fonte, estava a ser utilizada para operações militares no Irão.
A designação de "risco de cadeia de abastecimento", confirmada numa declaração da Anthropic, entrou em vigor imediatamente e impede que os contratantes governamentais utilizem a tecnologia da Anthropic no seu trabalho para as forças armadas dos EUA.
Mas as empresas ainda podem utilizar o Claude da Anthropic noutros projetos não relacionados com o Pentágono, escreveu o CEO Dario Amodei na declaração. Ele afirmou que a designação tem "um âmbito restrito" e que as restrições apenas se aplicam à utilização da IA da Anthropic em contratos do Pentágono.
"Aplica-se claramente apenas ao uso do Claude pelos clientes como parte direta de contratos com o Departamento da Guerra, não a todo o uso do Claude por clientes que tenham tais contratos."
A designação de risco segue-se a uma disputa de vários meses sobre a insistência da empresa em salvaguardas que o Departamento de Defesa, ao qual a administração Trump chama Departamento da Guerra, considerou excessivas. Na sua declaração, Amodei reiterou que a empresa contestaria a designação em tribunal.
Nos últimos dias, a Anthropic e o Pentágono discutiram possíveis planos para o Pentágono deixar de utilizar o Claude, disse Amodei na declaração de quinta-feira. Os dois lados conversaram sobre como a Anthropic poderia ainda trabalhar com os militares sem desmantelar as suas salvaguardas, acrescentou.
No entanto, numa publicação no X no final de quinta-feira, o Diretor de tecnologia (CTO) do Pentágono, Emil Michael, disse que não existe negociação ativa do Departamento de Defesa com a Anthropic.
Amodei também pediu desculpas por um memorando interno publicado na quarta-feira pelo site de notícias tecnológicas The Information. No memorando, originalmente escrito na sexta-feira passada, Amodei disse que os funcionários do Pentágono não gostavam da empresa em parte porque "não demos elogios ao estilo ditador a Trump."
A publicação do memorando interno ocorreu quando os investidores da Anthropic corriam para conter os danos causados pelo conflito da empresa com o Pentágono.
O Departamento de Defesa não respondeu imediatamente aos pedidos de comentário.
A ação representou uma repreensão extraordinária dos Estados Unidos contra uma empresa tecnológica americana que foi mais precoce do que as suas rivais em trabalhar com o Pentágono. A ação surge quando o departamento continua a depender da tecnologia da Anthropic para fornecer apoio a operações militares, incluindo no Irão, segundo uma pessoa familiarizada com o assunto.
O Claude está provavelmente a ser utilizado para analisar informações de inteligência e auxiliar no planeamento operacional.
Um porta-voz da Microsoft disse que os advogados da empresa estudaram a designação e concluíram que: "Os produtos da Anthropic, incluindo o Claude, podem continuar disponíveis para os nossos clientes — exceto o Departamento da Guerra — através de plataformas como M365, GitHub e Microsoft AI Foundry."
A Microsoft pode continuar a trabalhar com a Anthropic em projetos não relacionados com defesa, acrescentou o porta-voz.
A Amazon, investidora na Anthropic e cliente significativo do modelo Claude da empresa, não respondeu imediatamente a um pedido de comentário fora do horário comercial normal.
O Maven Smart Systems da Palantir – uma plataforma de software que fornece aos militares análise de inteligência e direcionamento de armas – utiliza múltiplas solicitações e fluxos de trabalho que foram construídos usando o código Claude da Anthropic, informou anteriormente a Reuters.
A Anthropic foi a mais agressiva das suas rivais em cortejar funcionários de segurança nacional dos EUA. Mas a empresa e o Pentágono têm estado em desacordo há meses sobre como os militares podem usar a sua tecnologia no campo de batalha. Este conflito irrompeu publicamente no início deste ano.
A Anthropic recusou-se a recuar nas proibições do seu Agente de IA Claude de alimentar armas autónomas e vigilância em massa dos EUA. O Pentágono resistiu, dizendo que deveria poder usar esta tecnologia conforme necessário, desde que cumpra a lei dos EUA.
A designação de "risco de cadeia de abastecimento" dá agora à Anthropic um estatuto que Washington até agora tinha tipicamente usado para adversários estrangeiros. Uma ação semelhante dos EUA foi tomada para remover a gigante tecnológica chinesa Huawei das cadeias de abastecimento do Pentágono. – Rappler.com


