Anthropic memiliki kontrak senilai $200 juta dengan Pentagon, akses ke jaringan rahasia, dan kepercayaan penuh dari militer AS.
Kemudian mereka mengajukan sebuah pertanyaan.
Pada November 2024, Anthropic menjadi perusahaan AI terdepan pertama yang diterapkan di dalam jaringan rahasia Pentagon. Kemitraan ini dibangun bersama Palantir. Pada Juli 2025, kontrak tersebut telah tumbuh menjadi $200 juta — lebih dari yang dilihat sebagian besar startup pertahanan dalam satu dekade.
Claude, model AI milik Anthropic, ada di mana-mana. Analisis intelijen. Operasi siber. Perencanaan operasional. Pemodelan dan simulasi. Departemen Perang menyebutnya "mission-critical."
Kemudian datanglah Januari 2026.
Claude digunakan dalam operasi militer rahasia di Venezuela — penangkapan Nicolás Maduro.
Anthropic mengajukan pertanyaan sederhana kepada mitra mereka Palantir: bagaimana tepatnya teknologi kami digunakan?
Di sebagian besar industri, itu disebut uji tuntas. Pentagon menyebutnya pembangkangan.
Perusahaan yang bertanya "bagaimana AI kami digunakan?" akan segera dilabeli sebagai ancaman bagi keamanan nasional.
Tujuh Hari yang Mengubah Segalanya
Berikut adalah kronologinya. Bergerak cepat. Itulah intinya.
24 Februari: Pete Hegseth, Menteri Perang, memanggil Dario Amodei — CEO Anthropic — ke Pentagon. Permintaannya tegas: hapus semua pengamanan dari Claude. Pengawasan domestik massal. Senjata sepenuhnya otonom. Semuanya.
Batas waktu: 27 Februari, pukul 17.01 ET.
26 Februari: Amodei menerbitkan jawabannya. Panjangnya dua huruf.
Tidak.
Pernyataan terbukanya menetapkan dua garis merah yang tidak akan dia lewati:
- Tidak ada pengawasan domestik massal. AI mengumpulkan data lokasi Anda, riwayat penelusuran, dan catatan keuangan menjadi profil — secara otomatis, dalam skala besar. Poin Amodei: hukum saat ini memungkinkan pemerintah membeli data ini tanpa surat perintah. AI memungkinkan untuk mempersenjatainya. "Hukum belum mengimbangi kemampuan AI yang berkembang pesat."
- Tidak ada senjata sepenuhnya otonom. Artinya: tidak menghilangkan manusia dari keputusan untuk membunuh seseorang. Bukan karena senjata otonom tidak akan pernah layak — tetapi karena AI saat ini tidak cukup dapat diandalkan. "Sistem AI terdepan tidak cukup andal untuk menggerakkan senjata sepenuhnya otonom."
Dia menawarkan untuk bekerja langsung dengan Pentagon pada R&D untuk meningkatkan keandalan. Pentagon menolak tawaran tersebut.
26 Februari (hari yang sama): Emil Michael, wakil menteri, menyebut Amodei "pembohong dengan kompleks Tuhan." Secara publik. Di media sosial. Nadanya sudah ditetapkan.
27 Februari, pukul 17.01: Batas waktu terlewati. Presiden Trump memerintahkan semua lembaga federal untuk berhenti menggunakan Anthropic. Hegseth menetapkan Anthropic sebagai "Risiko Rantai Pasokan" berdasarkan Federal Acquisition Supply Chain Security Act tahun 2018.
Penetapan tersebut sebelumnya dicadangkan untuk Huawei dan Kaspersky — perusahaan asing dengan ikatan terdokumentasi dengan pemerintah musuh.
Ini belum pernah diterapkan pada perusahaan Amerika. Sampai sekarang.
27 Februari, beberapa jam kemudian: OpenAI menandatangani kesepakatan penerapan rahasia dengan Pentagon yang sama.
Sam Altman men-tweet pada pukul 20.56:
https://x.com/sama/status/2027578652477821175?s=20OpenAI kemudian mengklaim kesepakatannya memiliki "lebih banyak pengamanan daripada perjanjian sebelumnya untuk penerapan AI rahasia, termasuk milik Anthropic."
Inilah masalahnya. Anthropic masuk daftar hitam karena pengamanannya. Sekarang pengamanan menjadi poin penjualan.
Akhir pekan: Reaksi balik segera terjadi.
- Uninstal ChatGPT melonjak 295% dalam satu hari, menurut Sensor Tower. Tingkat harian normal selama 30 hari sebelumnya? 9%.
- Claude mencapai #1 di App Store Apple di tujuh negara: AS, Belgia, Kanada, Jerman, Luksemburg, Norwegia, dan Swiss. Unduhan naik 37% pada hari Jumat, kemudian 51% pada hari Sabtu. Pertama kalinya aplikasi ini pernah mencapai posisi teratas.
- Lebih dari 300 karyawan Google dan 60 karyawan OpenAI menandatangani surat terbuka yang mendukung Anthropic.
- #QuitGPT menjadi tren di media sosial. Aktor Mark Ruffalo dan profesor NYU Scott Galloway memperkuat gerakan tersebut.
Pengguna... tidak senang.
2 Maret: Altman memposting lagi. Kali ini, memo internal panjang yang dibagikan secara publik di X:
https://x.com/sama/status/2028640354912923739?s=20Amandemen menambahkan tiga hal:
- Larangan eksplisit terhadap pengawasan domestik terhadap warga AS
- Persyaratan bahwa NSA memerlukan modifikasi kontrak terpisah untuk mengakses sistem
- Pembatasan penggunaan data pribadi yang diperoleh secara komersial — geolokasi, riwayat penelusuran, catatan keuangan
Yang terakhir itu layak untuk dihentikan sejenak. Itu ditambahkan pada hari Senin. Yang berarti kesepakatan hari Jumat tidak melarangnya.
3 Maret: Dua hal terjadi pada hari yang sama.
Pertama: Di American Dynamism Summit a16z, CEO Palantir Alex Karp memperingatkan bahwa perusahaan AI yang menolak bekerja sama dengan militer akan menghadapi nasionalisasi. Dia menggunakan kata kasar di atas panggung. Klip tersebut mendapat 11 juta tampilan.
Palmer Luckey, pendiri perusahaan teknologi pertahanan Anduril, mengatakan kepada audiens yang sama bahwa "istilah yang tampaknya tidak berbahaya seperti 'pemerintah tidak dapat menggunakan teknologi Anda untuk menargetkan warga sipil' sebenarnya adalah ladang ranjau moral."
Wakil Presiden JD Vance telah memberikan keynote lebih awal hari itu. Posisi pemerintahan sudah jelas.
Kedua: CNBC melaporkan bahwa dalam pertemuan all-hands dengan karyawan, Altman memberi tahu staf OpenAI bahwa perusahaan "tidak bisa memilih bagaimana militer menggunakan teknologinya."
Pengguna X menambahkan Community Note pada postingan Altman sebelumnya:
Hari yang sama. Postingan publik: kami memiliki pengamanan dan prinsip. Pertemuan internal: kami tidak bisa memilih.
Sementara itu, CBS News melaporkan bahwa Claude tetap diterapkan dalam operasi militer aktif — termasuk melawan Iran — meskipun ada penetapan risiko rantai pasokan. Daftar hitam tampaknya tidak berhasil. Teknologi ini terlalu tertanam dalam sistem rahasia untuk dihapus.
Masalah 95%
Dalam simulasi permainan perang, model AI memilih untuk meluncurkan senjata nuklir taktis 95% dari waktu.
Biarkan itu terpikirkan sejenak.
GPT-5.2, Claude Sonnet 4, dan Gemini 3 Flash diuji melalui simulasi konflik militer. Mereka menggunakan nuklir taktis dalam 95% skenario. Setidaknya satu model meluncurkan senjata nuklir dalam 20 dari 21 permainan.
Itulah teknologi yang ingin diterapkan Pentagon secara otonom.
Mode kegagalan terdokumentasi dan konsisten:
- Bias eskalasi. Model tidak hanya gagal secara acak. Mereka gagal dalam satu arah spesifik — menuju eskalasi. Penelitian Brookings Institution menemukan bahwa kesalahan militer AI bersifat sistematis, bukan acak. Polanya selalu sama: lebih banyak kekuatan, lebih cepat.
- Halusinasi. LLM menghasilkan informasi palsu dengan keyakinan tinggi. Dalam satu tes yang terkait dengan serangan Iran, sebuah AI memasukkan intelijen palsu ke dalam rantai keputusan. Di bawah tekanan waktu, operator manusia tidak dapat membedakannya dari yang asli.
- Kerentanan adversarial. Sistem ini dapat dimanipulasi dengan input yang dirancang dengan hati-hati untuk melewati pembatasannya. Penyerang tidak perlu eksternal. Kerentanan hidup di dalam model itu sendiri.
Ini bukan kasus tepi. Inilah yang dilakukan teknologi saat ini.
Pikirkan dengan cara ini. Kita sudah melihat apa yang terjadi ketika sistem otonom sederhana gagal dalam pengaturan militer.
Sistem rudal Patriot pada tahun 2003 membunuh tentara sekutu. Sistem tersebut salah mengidentifikasi pesawat Inggris yang ramah sebagai rudal musuh. Sistem tersebut berbasis aturan, dengan parameter yang ditetapkan. Tetap saja salah.
USS Vincennes pada tahun 1988 menembak jatuh Iran Air Penerbangan 655 — sebuah jet penumpang komersial. 290 warga sipil tewas. Sistem pertempuran Aegis kapal tersebut salah mengidentifikasi pesawat berdasarkan data radar. Kru memiliki waktu beberapa detik untuk memutuskan. Mereka mempercayai sistem.
Itu adalah sistem berbasis aturan dengan parameter yang jelas. LLM memiliki tingkat kompleksitas yang jauh lebih tinggi. Lebih buram. Kurang dapat diprediksi.
Dan mereka diminta untuk membuat keputusan yang lebih besar.
Masalah pengawasan. Begitu AI diterapkan di dalam jaringan rahasia, akuntabilitas eksternal menjadi apa yang disebut para ahli "hampir mustahil." Pembatasan terkikis di bawah tekanan operasional. Insinyur yang ditugaskan di lapangan yang dijanjikan OpenAI dapat mengamati beberapa interaksi, tentu saja. Tetapi operasi rahasia membatasi aliran informasi berdasarkan desain.
Dalam bahasa Inggris: dinding yang sama yang menjaga rahasia juga menjaga pengawasan keluar.
Pentagon memiliki argumen. Ini layak untuk didengar dengan adil.
Senjata semi-otonom — seperti drone yang digunakan di Ukraina — menyelamatkan nyawa. Mereka memungkinkan pasukan yang lebih kecil untuk bertahan melawan yang lebih besar. China dan Rusia tidak menunggu keandalan sempurna sebelum menerapkan sistem mereka sendiri.
Menolak menggunakan AI dalam pertahanan menciptakan kesenjangan kemampuan. Musuh akan mengeksploitasinya.
Dario Amodei mengakui ini secara langsung:
Keberatannya bukan pada tujuan. Itu pada garis waktu.
Dia menawarkan untuk berkolaborasi pada R&D yang diperlukan untuk sampai ke sana. Pentagon mengatakan tidak.
Ada kesenjangan antara "AI dapat merangkum laporan intelijen" — di mana ia benar-benar unggul — dan "AI dapat memutuskan siapa yang hidup dan mati." Kontrak tidak menjembatani kesenjangan itu. Amandemen tidak menjembataninya. Rekayasa yang melakukannya.
Dan rekayasanya belum selesai.
Bagaimana Anda Memasukkan Perusahaan Amerika ke Daftar Hitam
Risiko rantai pasokan. Kedengarannya birokratis. Sebenarnya ini adalah tombol matikan.
Di bawah Federal Acquisition Supply Chain Security Act tahun 2018 — FASCSA — penetapan "risiko rantai pasokan" berarti tidak ada kontraktor pemerintah yang dapat berbisnis dengan Anda. Bukan hanya Pentagon. Siapa pun yang menginginkan kontrak federal. Pemasok, subkontraktor, atau mitra apa pun dalam ekosistem pemerintah.
Dalam bahasa Inggris: Anda menjadi radioaktif bagi seluruh rantai pasokan federal.
Hukum dibangun untuk ancaman asing. Infrastruktur 5G Huawei. Perangkat lunak antivirus Kaspersky. Perusahaan dengan ikatan terdokumentasi dengan pemerintah yang bermusuhan.
Setiap perusahaan dalam daftar sebelum Anthropic memiliki satu kesamaan: mereka berasal dari negara yang dianggap musuh Amerika Serikat.
Anthropic berkantor pusat di San Francisco.
Pentagon juga mengancam Defense Production Act — undang-undang era Perang Dingin yang dirancang untuk mengambil alih pabrik untuk produksi masa perang. Pabrik baja. Pabrik amunisi. Infrastruktur fisik perang.
Pentagon mengancam akan menggunakannya untuk memaksa perusahaan perangkat lunak menghapus fitur keamanan dari chatbot AI.
Para ahli hukum menyebut penerapan ini "dipertanyakan." Hukum dibangun untuk produksi fisik, bukan pembatasan perangkat lunak. Menggunakannya untuk memaksa perusahaan membuat AI-nya kurang aman akan menjadi, setidaknya, teori hukum yang baru.
Amodei mengidentifikasi masalah logis dalam pernyataannya:
Anda tidak dapat menyebut teknologi sebagai ancaman terhadap rantai pasokan dan menggunakan kekuatan darurat untuk menyitanya karena Anda tidak dapat berfungsi tanpanya. Pilih satu.
Hasil praktisnya mengatakan banyak. CBS News melaporkan Claude tetap dalam penggunaan militer aktif. Meskipun ada daftar hitam. Penetapan itu bersifat hukuman, bukan praktis — teknologi terlalu tertanam untuk dicabut.
Yang memunculkan pertanyaan yang tampaknya tidak ada orang di Washington yang ingin menjawab: jika Pentagon tidak dapat menegakkan perintah penghapusan untuk teknologi yang telah secara resmi masuk daftar hitam, bagaimana tepatnya mereka akan menegakkan pengamanan penggunaan?
Posisi Pentagon sangat jelas. Perusahaan swasta tidak menetapkan kebijakan militer. Perusahaan AI adalah vendor. Militer memutuskan bagaimana alatnya digunakan.
Dari perspektif ini, Anthropic adalah pemasok yang menolak mengirimkan apa yang dipesan. Pelanggan menemukan vendor lain.
Framing itu secara internal konsisten. Itu juga framing yang akan Anda gunakan untuk perlengkapan kantor. Bukan untuk teknologi yang memilih eskalasi nuklir dalam 95% simulasi.
Apakah Pengamanan Itu Nyata?
Pada hari Jumat, kesepakatan OpenAI memiliki pengamanan. Pada hari Senin, ia membutuhkan lebih banyak pengamanan.
Itu memberi tahu Anda sesuatu tentang pengamanan hari Jumat.
Bahasa yang disetujui Altman dalam amandemen hari Senin layak untuk dibaca dengan seksama:
Kata yang melakukan pekerjaan berat: sengaja.
Apa yang terjadi ketika AI memproses dataset yang secara tidak sengaja mencakup orang Amerika? Bagaimana jika pengawasan adalah produk sampingan dari operasi intelijen yang lebih luas, bukan tujuan yang dinyatakan? Siapa yang mendefinisikan niat di dalam jaringan rahasia di mana mekanisme pengawasan, berdasarkan desain, terbatas?
Klausul data yang diperoleh secara komersial bahkan lebih mengungkapkan. Amandemen hari Senin secara eksplisit melarang penggunaan data pribadi yang dibeli — pelacakan lokasi, riwayat penelusuran, catatan keuangan — untuk pengawasan orang Amerika.
Klausul itu ditambahkan hari Senin. Kesepakatan hari Jumat tidak memasukkannya.
Selama akhir pekan penuh, perjanjian OpenAI dengan Pentagon secara teknis memungkinkan pengawasan massal melalui data yang dibeli secara komersial tentang warga Amerika.
Altman mengakuinya:
Pengecualian NSA juga layak diperiksa. Lembaga intelijen seperti NSA tidak dapat menggunakan sistem OpenAI tanpa "modifikasi lanjutan" pada kontrak. Itu terdengar seperti larangan. Ini sebenarnya adalah proses. Mekanisme untuk memberikan akses dibangun ke dalam struktur kontrak.
Itu bukan dinding. Ini adalah pintu dengan kunci yang berbeda.
Masalah yang lebih dalam adalah kontradiksi all-hands. Pada hari yang sama Altman memposting tentang prinsip dan pengamanan di X, dia memberi tahu karyawan secara internal bahwa OpenAI "tidak bisa memilih bagaimana militer menggunakan teknologinya."
Jika perusahaan yang membangun AI tidak bisa memilih bagaimana ia digunakan, pengamanan adalah siaran pers. Bukan kebijakan.
Di lingkungan rahasia, memantau AI secara fundamental berbeda dari memantau layanan cloud. Aparatus keamanan yang melindungi rahasia militer juga memblokir pengawasan independen terhadap perilaku AI.
Insinyur yang ditugaskan di lapangan dapat mengamati beberapa interaksi. Tetapi "beberapa interaksi" dan "setiap interaksi yang dicakup kontrak" adalah hal yang sangat berbeda.
Apa yang Akan Terjadi Selanjutnya
Pasar telah berbicara. Kerja sama mendapat kontrak. Perlawanan masuk daftar hitam.
Publik juga telah berbicara. Mereka meng-uninstal.
Struktur insentifnya jelas. OpenAI bekerja sama dan mendapatkan kesepakatan. Anthropic menolak dan ditetapkan sebagai risiko rantai pasokan — label yang sama yang digunakan pemerintah untuk perusahaan yang terkait dengan musuh asing.
Di KTT a16z, Karp memprediksi setiap perusahaan AI akan bekerja dengan militer dalam tiga tahun. Berdasarkan insentif, itu bukan prediksi. Itu adalah deskripsi.
Tetapi angka reaksi balik menceritakan kisah yang berbeda.
Lonjakan uninstal 295%. Claude di #1 di tujuh negara. Lebih dari 500 karyawan teknologi memutus hubungan dengan pemberi kerja mereka. Le Monde menulis editorial dari Paris tentang kelebihan pemerintah. Jajak pendapat menunjukkan 84% warga Inggris khawatir tentang kemitraan AI pemerintah-korporasi.
Para insinyur yang membangun sistem ini dan orang-orang yang menggunakannya melihat sesuatu yang tampaknya tidak dilihat Pentagon: mendukung pertahanan nasional dan menerapkan teknologi yang tidak dapat diandalkan untuk pembunuhan otonom bukanlah hal yang sama.
Tidak ada amandemen kontrak yang menutup kesenjangan ini. Tidak ada pengamanan yang menutupnya. Tidak ada insinyur yang ditugaskan di lapangan yang menutupnya.
Model AI memilih eskalasi nuklir dalam 95% simulasi permainan perang. Perusahaan yang mengatakan "teknologi belum siap" masuk daftar hitam. Perusahaan yang mengatakan "ya" mengakui dalam 72 jam bahwa itu ceroboh. Teknologi tetap diterapkan dalam operasi aktif terlepas dari apa yang diinginkan kedua perusahaan.
Amodei menawarkan untuk melakukan R&D untuk membuat senjata AI otonom aman dan andal. Dia menawarkan untuk berkolaborasi dengan Pentagon untuk sampai ke sana. Tawaran itu ditolak.
Anthropic memiliki kontrak $200 juta dan kepercayaan Pentagon. Kemudian mereka bertanya bagaimana teknologi mereka digunakan.
Jawabannya adalah batas waktu, daftar hitam, dan label yang sebelumnya dicadangkan untuk musuh Amerika.
Simulasi terus berjalan. Dalam 95% dari mereka, seseorang menekan tombol.
Sumber: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

