A etiqueta de 'risco da cadeia de abastecimento', confirmada numa declaração da Anthropic, é efetiva imediatamente e impede os contratantes governamentais de utilizarem a tecnologia da AnthropicA etiqueta de 'risco da cadeia de abastecimento', confirmada numa declaração da Anthropic, é efetiva imediatamente e impede os contratantes governamentais de utilizarem a tecnologia da Anthropic

Pentágono designa Anthropic como risco na cadeia de abastecimento

2026/03/06 12:51
Leu 4 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em [email protected]

O Pentágono aplicou formalmente uma designação de risco de cadeia de abastecimento ao laboratório de inteligência artificial Anthropic na quinta-feira, 5 de março, limitando o uso de uma tecnologia que, segundo uma fonte, estava a ser utilizada para operações militares no Irão.

A designação de "risco de cadeia de abastecimento", confirmada numa declaração da Anthropic, entrou em vigor imediatamente e impede que os contratantes governamentais utilizem a tecnologia da Anthropic no seu trabalho para as forças armadas dos EUA.

Mas as empresas ainda podem utilizar o Claude da Anthropic noutros projetos não relacionados com o Pentágono, escreveu o CEO Dario Amodei na declaração. Ele afirmou que a designação tem "um âmbito restrito" e que as restrições apenas se aplicam à utilização da IA da Anthropic em contratos do Pentágono.

"Aplica-se claramente apenas ao uso do Claude pelos clientes como parte direta de contratos com o Departamento da Guerra, não a todo o uso do Claude por clientes que tenham tais contratos."

A designação de risco segue-se a uma disputa de vários meses sobre a insistência da empresa em salvaguardas que o Departamento de Defesa, ao qual a administração Trump chama Departamento da Guerra, considerou excessivas. Na sua declaração, Amodei reiterou que a empresa contestaria a designação em tribunal.

Nos últimos dias, a Anthropic e o Pentágono discutiram possíveis planos para o Pentágono deixar de utilizar o Claude, disse Amodei na declaração de quinta-feira. Os dois lados conversaram sobre como a Anthropic poderia ainda trabalhar com os militares sem desmantelar as suas salvaguardas, acrescentou.

No entanto, numa publicação no X no final de quinta-feira, o Diretor de tecnologia (CTO) do Pentágono, Emil Michael, disse que não existe negociação ativa do Departamento de Defesa com a Anthropic.

Amodei também pediu desculpas por um memorando interno publicado na quarta-feira pelo site de notícias tecnológicas The Information. No memorando, originalmente escrito na sexta-feira passada, Amodei disse que os funcionários do Pentágono não gostavam da empresa em parte porque "não demos elogios ao estilo ditador a Trump."

A publicação do memorando interno ocorreu quando os investidores da Anthropic corriam para conter os danos causados pelo conflito da empresa com o Pentágono.

O Departamento de Defesa não respondeu imediatamente aos pedidos de comentário.

A ação representou uma repreensão extraordinária dos Estados Unidos contra uma empresa tecnológica americana que foi mais precoce do que as suas rivais em trabalhar com o Pentágono. A ação surge quando o departamento continua a depender da tecnologia da Anthropic para fornecer apoio a operações militares, incluindo no Irão, segundo uma pessoa familiarizada com o assunto.

O Claude está provavelmente a ser utilizado para analisar informações de inteligência e auxiliar no planeamento operacional.

Um porta-voz da Microsoft disse que os advogados da empresa estudaram a designação e concluíram que: "Os produtos da Anthropic, incluindo o Claude, podem continuar disponíveis para os nossos clientes — exceto o Departamento da Guerra — através de plataformas como M365, GitHub e Microsoft AI Foundry."

A Microsoft pode continuar a trabalhar com a Anthropic em projetos não relacionados com defesa, acrescentou o porta-voz.

A Amazon, investidora na Anthropic e cliente significativo do modelo Claude da empresa, não respondeu imediatamente a um pedido de comentário fora do horário comercial normal.

O Maven Smart Systems da Palantir – uma plataforma de software que fornece aos militares análise de inteligência e direcionamento de armas – utiliza múltiplas solicitações e fluxos de trabalho que foram construídos usando o código Claude da Anthropic, informou anteriormente a Reuters.

A Anthropic foi a mais agressiva das suas rivais em cortejar funcionários de segurança nacional dos EUA. Mas a empresa e o Pentágono têm estado em desacordo há meses sobre como os militares podem usar a sua tecnologia no campo de batalha. Este conflito irrompeu publicamente no início deste ano.

A Anthropic recusou-se a recuar nas proibições do seu Agente de IA Claude de alimentar armas autónomas e vigilância em massa dos EUA. O Pentágono resistiu, dizendo que deveria poder usar esta tecnologia conforme necessário, desde que cumpra a lei dos EUA.

A designação de "risco de cadeia de abastecimento" dá agora à Anthropic um estatuto que Washington até agora tinha tipicamente usado para adversários estrangeiros. Uma ação semelhante dos EUA foi tomada para remover a gigante tecnológica chinesa Huawei das cadeias de abastecimento do Pentágono. – Rappler.com

Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail [email protected] para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.