Het Pentagon heeft op donderdag 5 maart een formele aanduiding voor toeleveringsketenrisico opgelegd aan het kunstmatige intelligentielaboratorium Anthropic, waardoor het gebruik van een technologie wordt beperkt die volgens een bron werd gebruikt voor militaire operaties in Iran.
Het label "toeleveringsketenrisico", bevestigd in een verklaring van Anthropic, gaat onmiddellijk in en verbiedt overheidscontractanten om de technologie van Anthropic te gebruiken in hun werk voor het Amerikaanse leger.
Maar bedrijven kunnen Claude van Anthropic nog steeds gebruiken in andere projecten die geen verband houden met het Pentagon, schreef CEO Dario Amodei in de verklaring. Hij zei dat de aanduiding "een beperkte reikwijdte" heeft en dat de beperkingen alleen van toepassing zijn op het gebruik van Anthropic AI in Pentagon-contracten.
"Het is duidelijk alleen van toepassing op het gebruik van Claude door klanten als direct onderdeel van contracten met het Department of War, niet op al het gebruik van Claude door klanten die dergelijke contracten hebben."
De risico-aanduiding volgt op een maandenlang geschil over het aandringen van het bedrijf op veiligheidsmaatregelen die volgens het ministerie van Defensie, dat door de Trump-administratie het Department of War wordt genoemd, te ver gingen. In zijn verklaring herhaalde Amodei dat het bedrijf de aanduiding voor de rechter zou aanvechten.
De afgelopen dagen hebben Anthropic en het Pentagon mogelijke plannen besproken voor het Pentagon om te stoppen met het gebruik van Claude, zei Amodei in de verklaring van donderdag. De twee partijen hebben gesproken over hoe Anthropic nog steeds met het leger zou kunnen werken zonder de veiligheidsmaatregelen te ontmantelen, voegde hij eraan toe.
In een bericht op X laat op donderdag zei Pentagon Chief Technology Officer Emil Michael echter dat er geen actieve onderhandeling van het Department of Defense met Anthropic plaatsvindt.
Amodei verontschuldigde zich ook voor een interne memo die woensdag werd gepubliceerd door de technologienieuwssite The Information. In de memo, oorspronkelijk geschreven afgelopen vrijdag, zei Amodei dat Pentagon-officials het bedrijf deels niet mochten omdat "we Trump niet op dictatorstijl hebben geprezen."
De publicatie van de interne memo kwam op het moment dat de investeerders van Anthropic haastten om de schade te beperken die werd veroorzaakt door het conflict van het bedrijf met het Pentagon.
Het ministerie van Defensie reageerde niet onmiddellijk op verzoeken om commentaar.
De actie vertegenwoordigde een buitengewone berisping door de Verenigde Staten tegen een Amerikaans technologiebedrijf dat eerder dan zijn concurrenten met het Pentagon samenwerkte. De actie komt terwijl het ministerie blijft vertrouwen op de technologie van Anthropic om ondersteuning te bieden voor militaire operaties, inclusief in Iran, volgens een persoon die bekend is met de zaak.
Claude wordt waarschijnlijk gebruikt om inlichtingen te analyseren en te helpen bij operationele planning.
Een woordvoerder van Microsoft zei dat de advocaten van het bedrijf de aanduiding hebben bestudeerd en hebben geconcludeerd dat: "Anthropic-producten, waaronder Claude, beschikbaar kunnen blijven voor onze klanten — met uitzondering van het Department of War — via platforms zoals M365, GitHub en Microsoft's AI Foundry."
Microsoft kan blijven samenwerken met Anthropic aan niet-defensiegerelateerde projecten, voegde de woordvoerder eraan toe.
Amazon, een investeerder in Anthropic en een belangrijke klant van het Claude-model van het bedrijf, reageerde niet onmiddellijk op een verzoek om commentaar buiten reguliere kantooruren.
Palantir's Maven Smart Systems – een softwareplatform dat legers voorziet van inlichtingenanalyse en wapendoelwitten – gebruikt meerdere prompts en workflows die zijn gebouwd met de Claude-code van Anthropic, meldde Reuters eerder.
Anthropic was het meest agressief van zijn concurrenten in het werven van Amerikaanse nationale veiligheidsfunctionarissen. Maar het bedrijf en het Pentagon liggen al maanden met elkaar overhoop over hoe het leger de technologie op het slagveld kan gebruiken. Dit conflict kwam eerder dit jaar in de openbaarheid.
Anthropic heeft geweigerd terug te krabbelen op verboden voor zijn Claude AI om autonome wapens en massale Amerikaanse surveillance aan te drijven. Het Pentagon heeft zich verzet en zegt dat het deze technologie naar behoefte moet kunnen gebruiken, zolang het voldoet aan de Amerikaanse wetgeving.
Het label "toeleveringsketenrisico" geeft Anthropic nu een status die Washington tot nu toe doorgaans gebruikte voor buitenlandse tegenstanders. Soortgelijke Amerikaanse actie werd ondernomen om de Chinese technologiegigant Huawei uit de toeleveringsketens van het Pentagon te verwijderen. – Rappler.com


