Tentera AS dilaporkan bergantung pada Claude AI milik Anthropic semasa serangan udara besar-besaran di Iran, perkembangan yang muncul hanya beberapa jam selepas Presiden Donald Trump mengarahkan agensi persekutuan untuk menghentikan penggunaan model tersebut. Komando di rantau ini, termasuk CENTCOM, dilaporkan menggunakan Claude untuk menyokong analisis perisikan, pemeriksaan sasaran, dan simulasi medan perang. Episod ini menyerlahkan betapa dalamnya alat AI telah dijalin ke dalam operasi pertahanan walaupun pembuat dasar mendesak untuk memutuskan hubungan dengan vendor tertentu. Episod ini menggariskan ketegangan antara arahan eksekutif dan automasi di lapangan yang boleh mempengaruhi perolehan dan pengurusan risiko merentasi program pertahanan.
<li Anthropic sebelum ini telah memperoleh kontrak Pentagon berbilang tahun bernilai sehingga $200 juta, dengan kerjasama melibatkan Palantir dan Amazon Web Services untuk membolehkan aliran kerja terperingkat bagi Claude.
<li Pentadbiran Trump mengarahkan agensi untuk berhenti bekerjasama dengan Anthropic dan mengarahkan Jabatan Pertahanan untuk menganggap syarikat itu sebagai risiko keselamatan yang berpotensi selepas rundingan kontrak terhenti mengenai penggunaan ketenteraan tanpa sekatan.
<li Pentagon mula mengenal pasti pembekal pengganti dan beralih untuk menggunakan model AI lain pada rangkaian terperingkat, termasuk kerjasama dengan OpenAI untuk penggunaan sedemikian.
<li Ketua Pegawai Eksekutif Anthropic, Dario Amodei, secara terbuka menentang larangan tersebut, dengan berhujah bahawa aplikasi ketenteraan tertentu melanggar sempadan etika dan harus kekal di bawah pengawasan manusia dan bukannya pengawasan besar-besaran automatik atau persenjataan autonomi.
Sentimen: Neutral
Konteks pasaran: Episod ini berada di persimpangan perolehan pertahanan, etika AI, dan pengurusan risiko keselamatan negara ketika agensi menilai semula pergantungan vendor dan klasifikasi alat AI untuk operasi sensitif.
Insiden ini menawarkan gambaran jarang tentang bagaimana model AI komersial diintegrasikan ke dalam aliran kerja ketenteraan yang berisiko tinggi. Claude, yang pada asalnya direka untuk tugas kognitif yang luas, dilaporkan menyokong analisis perisikan dan pemodelan senario medan perang, menunjukkan tahap kepercayaan operasi yang melangkaui persekitaran makmal ke misi dunia sebenar. Ini menimbulkan persoalan penting tentang kebolehpercayaan, audit, dan kebolehkawalan AI dalam perancangan pertempuran, terutamanya apabila isyarat dasar kerajaan berubah dengan pantas mengenai penggunaan vendor.
Di peringkat dasar, geseran antara hubungan kontrak dan arahan presiden menyerlahkan perdebatan yang lebih luas tentang bagaimana vendor AI harus dilayan dalam persekitaran yang selamat. Penolakan Anthropic untuk memberikan penggunaan ketenteraan tanpa sekatan selaras dengan sempadan etika yang dinyatakan, menandakan bahawa pembekal sektor swasta mungkin semakin menentang konfigurasi yang mereka anggap bermasalah dari segi etika. Tindak balas Pentagon—beralih kepada pembekal alternatif untuk beban kerja terperingkat—menggambarkan bagaimana jabatan pertahanan mungkin mempelbagaikan ekosistem AI untuk mengurangkan pendedahan risiko, sambil mengekalkan keupayaan dalam operasi sensitif.
Ketegangan ini juga menyentuh dinamik persaingan pasaran AI-sebagai-perkhidmatan. Dengan OpenAI dilaporkan mengambil alih untuk menyediakan model bagi rangkaian terperingkat, sektor ini berkemungkinan akan menyaksikan eksperimen berterusan dan rundingan semula syarat mengenai klasifikasi keselamatan, tadbir urus data, dan risiko rantaian bekalan. Situasi ini menggariskan keperluan untuk rangka kerja tadbir urus yang ketat yang boleh menyesuaikan diri dengan perubahan teknologi yang pesat tanpa menjejaskan keselamatan operasi atau piawaian etika.
Pegawai menerangkan Claude sebagai memainkan peranan dalam analisis perisikan dan perancangan operasi semasa serangan udara besar di Iran, dakwaan yang menggambarkan betapa dekatnya alat AI telah bergerak ke arah pembuatan keputusan medan perang. Walaupun pentadbiran Trump bergerak untuk memutuskan hubungan dengan Anthropic, penggunaan operasi Claude dilaporkan berterusan dalam komando tertentu, menggariskan pemisahan antara kenyataan dasar dan aliran kerja pertahanan harian. Realiti praktikalnya ialah analisis, simulasi, dan penilaian risiko yang didorong oleh AI boleh menyelinap ke dalam perancangan misi walaupun agensi menilai semula risiko vendor dan keperluan pematuhan merentasi jabatan.
Penglibatan Pentagon sebelum ini dengan Anthropic adalah besar: kontrak berbilang tahun bernilai sehingga $200 juta dan rangkaian perkongsian, termasuk Palantir dan Amazon Web Services, yang membolehkan penggunaan Claude dalam pengendalian maklumat terperingkat dan pemprosesan perisikan. Pengaturan itu menyerlahkan strategi yang lebih luas: mempelbagaikan keupayaan AI merentasi ekosistem yang dipercayai untuk memastikan daya tahan dalam tetapan sensitif. Namun apabila arahan dasar berubah, pentadbiran bergerak untuk membingkai semula hubungan vendor, menandakan penentukuran semula berasaskan risiko dan bukannya berundur sepenuhnya dari operasi pertahanan yang didayakan AI.
Di sebalik tabir, ketegangan antara dasar awam dan etika sektor swasta menjadi tumpuan. Setiausaha Pertahanan Pete Hegseth dilaporkan mendesak Anthropic untuk membenarkan penggunaan ketenteraan tanpa sekatan bagi modelnya, permintaan yang ditolak oleh kepimpinan Anthropic sebagai melanggar garis etika yang syarikat tidak akan langgar. Pendirian firma itu berpusat pada kepercayaan bahawa penggunaan tertentu—pengawasan domestik besar-besaran dan senjata autonomi sepenuhnya—menimbulkan kebimbangan etika dan undang-undang yang mendalam, dan bahawa pengawasan manusia yang bermakna harus bertahan dalam peralihan dari konsep ke pelaksanaan. Kedudukan ini selaras dengan perdebatan berterusan tentang cara mengimbangi penggunaan AI yang pantas dengan perlindungan terhadap penyalahgunaan dan akibat yang tidak diingini.
Bagi pihaknya, Pentagon tidak berdiam diri. Menghadapi jurang pembekal yang berpotensi, ia mula menyusun pengganti dan dilaporkan mencapai perjanjian dengan OpenAI untuk menggunakan model pada rangkaian terperingkat. Peralihan ini menggariskan langkah strategik yang lebih luas untuk memastikan kesinambungan keupayaan, walaupun vendor menilai semula syarat mereka untuk penggunaan sensitif. Perbezaan antara sempadan etika Anthropic dan keperluan operasi jabatan mendedahkan ketegangan dasar yang lebih luas: bagaimana memanfaatkan teknologi transformatif secara bertanggungjawab sambil memelihara keperluan keselamatan negara.
Pemerhati industri juga menyatakan kesan ekosistem peralihan sedemikian. Pasaran AI berkembang ke arah konfigurasi modular dan diluluskan keselamatan yang boleh ditukar atau dinaik taraf apabila dasar dan penilaian risiko berubah. Pengaturan OpenAI, khususnya, menandakan selera berterusan untuk mengintegrasikan model terkemuka ke dalam rangkaian pertahanan, walaupun di bawah tadbir urus dan pengawasan yang ketat. Walaupun trajektori ini menjanjikan keupayaan yang dipertingkatkan untuk penganalisis dan perancang ketenteraan, ia juga meningkatkan pengawasan mengenai pengendalian data, kebolehinterpretasian model, dan risiko bergantung berlebihan pada sistem automatik untuk keputusan kritikal.
Ketua Pegawai Eksekutif Anthropic, Dario Amodei, telah berhujah bahawa walaupun AI boleh menambah pertimbangan manusia, ia tidak boleh menggantikannya dalam keputusan pertahanan teras. Dalam kenyataan awam, beliau mengesahkan semula komitmen syarikat terhadap sempadan etika dan untuk mengekalkan kawalan manusia dalam saat-saat penting. Ketegangan antara mengekalkan akses kepada alat terkini dan menegakkan piawaian etika berkemungkinan akan membentuk rundingan masa depan dengan agensi persekutuan, terutamanya ketika penggubal undang-undang dan pengawal selia meneliti peranan AI dalam konteks sivil dan keselamatan negara.
Ketika landskap berkembang, komuniti kripto dan teknologi yang lebih luas akan memerhatikan bagaimana dinamik dasar dan perolehan ini mempengaruhi pembangunan dan penggunaan sistem AI lanjutan dalam persekitaran yang berisiko tinggi. Episod ini berfungsi sebagai kajian kes dalam mengimbangi kemajuan teknologi yang pesat dengan tadbir urus, pengawasan, dan persoalan abadi tentang di mana tanggungjawab manusia berakhir dan pembuatan keputusan automatik bermula.
Artikel ini pada asalnya diterbitkan sebagai US military used Anthropic for Iran strike despite Trump's ban: WSJ di Crypto Breaking News – sumber berita kripto, berita Bitcoin, dan kemas kini blockchain yang anda percayai.


