L'esercito americano si sarebbe affidato all'AI Claude di Anthropic durante un importante attacco aereo in Iran, uno sviluppo emerso poche ore dopo che il Presidente Donald TrumpL'esercito americano si sarebbe affidato all'AI Claude di Anthropic durante un importante attacco aereo in Iran, uno sviluppo emerso poche ore dopo che il Presidente Donald Trump

Militari USA hanno usato Anthropic per attacco all'Iran nonostante il divieto di Trump: WSJ

2026/03/01 19:49
8 min di lettura
Per feedback o dubbi su questo contenuto, contattateci all'indirizzo [email protected].
Us Military Used Anthropic For Iran Strike Despite Trump's Ban: Wsj

L'esercito statunitense si sarebbe affidato all'Agente IA Claude di Anthropic durante un importante attacco aereo in Iran, uno sviluppo emerso poche ore dopo che il presidente Donald Trump ha ordinato alle agenzie federali di interrompere l'uso del modello. I comandi nella regione, incluso CENTCOM, avrebbero utilizzato Claude per supportare l'analisi tecnica dell'intelligence, la verifica degli obiettivi e simulazioni sul campo di battaglia. L'episodio evidenzia quanto profondamente gli strumenti basati su IA siano stati integrati nelle operazioni di difesa, anche mentre i responsabili politici spingono per interrompere i rapporti con determinati fornitori. L'episodio sottolinea una tensione tra le direttive esecutive e l'automazione sul campo che potrebbe influenzare gli appalti e la gestione automatizzata del rischio nei programmi di difesa.

Punti Chiave

  • <li L'Agente IA Claude sarebbe stato impiegato per l'analisi tecnica dell'intelligence, la verifica degli obiettivi e simulazioni sul campo di battaglia in relazione a un importante attacco aereo, ore dopo una direttiva della Casa Bianca di sospendere l'uso del sistema.
  • <li Anthropic aveva precedentemente ottenuto un contratto pluriennale con il Pentagono del valore fino a 200 milioni di dollari, con collaborazioni che coinvolgono Palantir e Amazon Web Services per abilitare flussi di lavoro classificati per Claude.

  • <li L'amministrazione Trump ha ordinato alle agenzie di interrompere la collaborazione con Anthropic e ha diretto il Dipartimento della Difesa a trattare l'azienda come un potenziale rischio per la sicurezza dopo che le trattative contrattuali si sono interrotte sull'uso militare senza restrizioni.

  • <li Il Pentagono ha iniziato a identificare fornitori sostitutivi e si è mosso per implementare altri modelli di Agente IA su reti classificate, inclusa una collaborazione con OpenAI per tali implementazioni.

  • <li Il CEO di Anthropic Dario Amodei ha pubblicamente respinto il divieto, sostenendo che alcune applicazioni militari oltrepassano confini etici e dovrebbero rimanere sotto supervisione umana piuttosto che essere automatizzate, come la sorveglianza di massa o l'armamento autonomo.

Sentiment: Neutrale

Contesto di mercato: L'episodio si colloca all'intersezione tra appalti di difesa, etica dell'IA e gestione automatizzata del rischio per la sicurezza nazionale, mentre le agenzie rivalutano le dipendenze dai fornitori e la classificazione degli strumenti di Agente IA per operazioni sensibili.

Perché È Importante

L'incidente offre uno sguardo raro su come i modelli commerciali di Agente IA vengano integrati in flussi di lavoro militari ad alto rischio. Claude, originariamente progettato per compiti cognitivi ampi, avrebbe supportato l'analisi tecnica dell'intelligence e la modellazione di scenari sul campo di battaglia, suggerendo un livello di fiducia operativa che si estende oltre gli ambienti di laboratorio nelle missioni del mondo reale. Ciò solleva importanti questioni sulla affidabilità, l'auditing e la controllabilità dell'IA nella pianificazione del combattimento, specialmente quando i segnali politici governativi cambiano rapidamente riguardo all'uso dei fornitori.

A livello politico, l'attrito tra una relazione contrattuale e una direttiva presidenziale evidenzia un dibattito più ampio su come i fornitori di Agente IA dovrebbero essere trattati in ambienti sicuri. Il rifiuto di Anthropic di concedere un uso militare senza restrizioni si allinea con i suoi confini etici dichiarati, segnalando che i fornitori del settore privato potrebbero sempre più respingere configurazioni che ritengono eticamente problematiche. La risposta del Pentagono—rivolgersi a fornitori alternativi per carichi di lavoro classificati—illustra come i dipartimenti di difesa possano diversificare gli ecosistemi di IA per ridurre l'esposizione al rischio, mantenendo al contempo la capacità in operazioni sensibili.

La tensione tocca anche le dinamiche competitive del mercato dell'IA-come-servizio. Con OpenAI che sarebbe intervenuto per fornire modelli per reti classificate, il settore probabilmente vedrà una continua sperimentazione e rinegoziazione dei termini riguardo alle classificazioni di sicurezza, alla governance dei dati e al rischio della catena di approvvigionamento. La situazione sottolinea la necessità di rigorosi quadri di governance che possano adattarsi ai rapidi cambiamenti tecnologici senza compromettere la sicurezza operativa o gli standard etici.

Cosa Osservare In Seguito

  • Aggiornamenti normativi e politici dal Dipartimento della Difesa e dalla Casa Bianca riguardo all'uso dei fornitori di Agente IA e alle classificazioni di sicurezza.
  • Eventuali nuovi appalti o partnership che estendano le capacità di Agente IA per missioni classificate, inclusi potenziali accordi con fornitori alternativi per sostituire o integrare le offerte di Anthropic.
  • Dichiarazioni pubbliche di Anthropic e OpenAI sulla natura delle implementazioni su reti protette e su eventuali nuove restrizioni o protezioni.
  • Ulteriori dettagli sull'esito delle precedenti negoziazioni sull'uso senza restrizioni e su come ciò plasmerà futuri contratti di difesa con fornitori di Agente IA.

Fonti e Verifica

  • Rapporti sull'uso di Claude in un'operazione in Medio Oriente e l'ordine di interruzione dell'amministrazione, incluse prove discusse con fonti informate sulla questione.
  • Contesto sul contratto di Anthropic con il Pentagono, incluso l'accordo pluriennale del valore fino a 200 milioni di dollari e partnership con Palantir e AWS per flussi di lavoro classificati.
  • Dichiarazioni della leadership di Anthropic e commenti pubblici sull'uso militare e sui confini etici, incluse interviste e risposte ufficiali alle azioni normative.
  • Implementazione di OpenAI su reti classificate e discussioni correlate, incluso il discorso pubblico su un accordo con l'esercito statunitense e la copertura associata.
  • Discussioni pubbliche e riferimenti sui social media collegati all'accordo di OpenAI con l'esercito, come post che documentano le reazioni del settore.

Claude di Anthropic Nel Mirino: IA, Etica e Politica Si Scontrano Nelle Operazioni Di Difesa

I funzionari hanno descritto Claude come svolgente un ruolo nell'analisi tecnica dell'intelligence e nella pianificazione operativa durante un importante attacco aereo in Iran, un'affermazione che illustra quanto gli strumenti di Agente IA si siano avvicinati al processo decisionale sul campo di battaglia. Mentre l'amministrazione Trump si è mossa per interrompere i legami con Anthropic, l'uso operativo di Claude sarebbe persistito in determinati comandi, sottolineando una disconnessione tra dichiarazioni politiche e flussi di lavoro di difesa quotidiani. La realtà pratica è che analisi basate su IA, simulazioni e valutazioni del rischio possono insinuarsi nella pianificazione delle missioni anche mentre le agenzie rivalutano il rischio dei fornitori e i requisiti di conformità tra i dipartimenti.

Il precedente impegno del Pentagono con Anthropic era sostanziale: un contratto pluriennale del valore fino a 200 milioni di dollari e una rete di partnership, incluse Palantir e Amazon Web Services, che hanno consentito l'uso di Claude nella gestione di informazioni classificate e nell'elaborazione dell'intelligence. L'accordo ha evidenziato una strategia più ampia: diversificare le capacità di Agente IA attraverso un ecosistema fidato per garantire resilienza in contesti sensibili. Tuttavia, quando le direzioni politiche sono cambiate, l'amministrazione si è mossa per riformulare la relazione con il fornitore, segnalando una ricalibrazione basata sul rischio piuttosto che un ritiro totale dalle operazioni di difesa abilitate dall'IA.

Dietro le quinte, le tensioni tra politiche pubbliche ed etica del settore privato sono emerse in primo piano. Il Segretario alla Difesa Pete Hegseth avrebbe fatto pressione su Anthropic per consentire l'uso militare senza restrizioni dei suoi modelli, una richiesta che la leadership di Anthropic ha respinto come un oltrepassamento di linee etiche che l'azienda non avrebbe superato. La posizione dell'azienda si basa sulla convinzione che determinati usi—sorveglianza domestica di massa e armi completamente autonome—sollevino profonde preoccupazioni etiche e legali, e che una significativa supervisione umana dovrebbe sopravvivere alla transizione dal concetto all'esecuzione. Questa posizione si allinea con i dibattiti in corso su come bilanciare la rapida adozione dell'IA con le protezioni contro abusi e conseguenze indesiderate.

Da parte sua, il Pentagono non è rimasto fermo. Di fronte a un potenziale vuoto di fornitori, ha iniziato ad allineare sostituzioni e avrebbe raggiunto un accordo con OpenAI per implementare modelli su reti classificate. Il cambiamento sottolinea una mossa strategica più ampia per garantire la continuità delle capacità, anche mentre i fornitori rivalutano i loro termini per implementazioni sensibili. Il contrasto tra i confini etici di Anthropic e le esigenze operative del dipartimento rivela una tensione politica più ampia: come sfruttare la tecnologia trasformativa in modo responsabile preservando gli imperativi di sicurezza nazionale.

Gli osservatori del settore hanno anche notato gli effetti dell'ecosistema della Tokenizzazione di tali transizioni. Il mercato dell'IA si sta evolvendo verso configurazioni più modulari e autorizzate alla sicurezza che possono essere scambiate o aggiornate man mano che le valutazioni delle politiche e dei rischi cambiano. L'accordo con OpenAI, in particolare, segnala un continuo appetito per l'integrazione di modelli leader nelle reti di difesa, seppur sotto rigorosa governance e supervisione. Mentre questa traiettoria promette capacità migliorate per analisti e pianificatori militari, eleva anche il controllo sulla gestione dei dati, sull'interpretabilità del modello e sul rischio di eccessiva dipendenza da sistemi automatizzati per decisioni critiche.

Il CEO di Anthropic, Dario Amodei, ha sostenuto che mentre l'IA può aumentare il giudizio umano, non può sostituirlo nelle decisioni di difesa fondamentali. In osservazioni pubbliche, ha riaffermato l'impegno dell'azienda verso i confini etici e il mantenimento del controllo umano in momenti cruciali. La tensione tra il mantenimento dell'accesso a strumenti all'avanguardia e il rispetto degli standard etici probabilmente plasmerà le future negoziazioni con le agenzie federali, in particolare mentre i legislatori e i regolatori esaminano il ruolo dell'IA in contesti civili e di sicurezza nazionale.

Man mano che il panorama si evolve, le comunità crypto e tecnologiche più ampie osserveranno come queste dinamiche politiche e di approvvigionamento influenzino lo sviluppo e l'implementazione di sistemi avanzati di Agente IA in ambienti ad alto rischio. L'episodio serve come caso di studio nel bilanciare il rapido progresso tecnologico con la governance, la supervisione e la questione duratura di dove finisce la responsabilità umana e inizia il processo decisionale automatizzato.

Questo articolo è stato originariamente pubblicato come US military used Anthropic for Iran strike despite Trump's ban: WSJ su Crypto Breaking News – la tua fonte affidabile per notizie crypto, notizie Bitcoin e aggiornamenti blockchain.

Disclaimer: gli articoli ripubblicati su questo sito provengono da piattaforme pubbliche e sono forniti esclusivamente a scopo informativo. Non riflettono necessariamente le opinioni di MEXC. Tutti i diritti rimangono agli autori originali. Se ritieni che un contenuto violi i diritti di terze parti, contatta [email protected] per la rimozione. MEXC non fornisce alcuna garanzia in merito all'accuratezza, completezza o tempestività del contenuto e non è responsabile per eventuali azioni intraprese sulla base delle informazioni fornite. Il contenuto non costituisce consulenza finanziaria, legale o professionale di altro tipo, né deve essere considerato una raccomandazione o un'approvazione da parte di MEXC.