Ketegangan yang meningkat antara laboratorium kecerdasan buatan terkemuka dan establishment pertahanan AS telah meningkat menjadi konflik berisiko tinggi terkait anthropic ai dan penggunaan di medan perang.
Anthropic telah menolak tuntutan Departemen Pertahanan AS untuk menghapus batasan keamanan AI kunci dari sistemnya, meskipun kontrak senilai $200 juta kini terancam. Perusahaan telah memperjelas bahwa mereka tidak akan mundur dalam perselisihan dengan DoD mengenai bagaimana model canggih mereka dapat diterapkan di seluruh jaringan militer.
Pesaing startup tersebut, OpenAI, Google, dan xAI mengamankan penghargaan DoD serupa hingga $200 juta pada tahun 2023. Namun, perusahaan-perusahaan tersebut setuju untuk membiarkan Pentagon menggunakan sistem mereka untuk semua misi yang sah di dalam lingkungan tidak terklasifikasi militer, memberikan fleksibilitas operasional yang lebih luas kepada pemerintah.
Sebaliknya, Anthropic menandatangani kesepakatan senilai $200 juta sendiri dengan DoD pada bulan Juli dan menjadi laboratorium AI pertama yang menanamkan modelnya langsung ke dalam alur kerja misi di jaringan terklasifikasi. Selain itu, alat-alatnya diintegrasikan ke dalam operasi pertahanan sensitif, menempatkan perusahaan di pusat pembangunan AI keamanan nasional AS.
Negosiasi dengan pejabat Pentagon semakin tegang selama beberapa minggu terakhir. Seseorang yang akrab dengan pembicaraan mengatakan gesekan tersebut "berlangsung beberapa bulan," jauh sebelum diketahui publik bahwa Claude digunakan dalam operasi AS yang terkait dengan penyitaan Presiden Venezuela Nicolás Maduro.
Inti dari konflik adalah seberapa jauh otoritas militer dapat mendorong model AI yang kuat menuju pengawasan dan otonomi. Anthropic mencari jaminan mengikat bahwa teknologinya tidak akan digunakan untuk senjata otonom sepenuhnya atau untuk pengawasan domestik massal terhadap orang Amerika, sementara DoD ingin menghindari batasan semacam itu.
Dengan demikian, ini bukan perselisihan komersial yang sempit tetapi perselisihan perlindungan ai berprofil tinggi dengan implikasi langsung untuk otomatisasi medan perang di masa depan. Pentagon bersikeras pada keleluasaan hukum maksimum, sedangkan Anthropic berpendapat sistem saat ini belum dapat dipercaya dengan keputusan hidup-mati dalam skala besar.
Dalam pernyataan terperinci, CEO Dario Amodei memperingatkan bahwa dalam "serangkaian kasus yang sempit" kecerdasan buatan dapat "merusak, bukan mempertahankan, nilai-nilai demokratis." Dia menekankan bahwa beberapa aplikasi "berada di luar batas apa yang dapat dilakukan teknologi saat ini secara aman dan andal," menyoroti risiko penyalahgunaan selama operasi militer yang kompleks.
Memperluas kekhawatiran pengawasan, Amodei berpendapat bahwa sistem yang kuat sekarang memungkinkan untuk "merakit data yang tersebar, yang secara individual tidak berbahaya ini menjadi gambaran komprehensif tentang kehidupan seseorang, secara otomatis dan dalam skala besar." Selain itu, dia memperingatkan bahwa kemampuan semacam itu, jika diarahkan ke dalam negeri, dapat secara fundamental membentuk kembali hubungan antara warga negara dan negara.
Amodei mengulangi bahwa Anthropic mendukung penggunaan AI untuk pengumpulan intelijen asing yang sah. Namun, dia menambahkan bahwa "menggunakan sistem ini untuk pengawasan domestik massal tidak sesuai dengan nilai-nilai demokratis," menarik garis etika yang keras antara intelijen luar negeri dan pemantauan internal terhadap warga AS.
Perebutan kekuasaan meningkat selama pertemuan hari Selasa di Pentagon antara Amodei dan Menteri Pertahanan Pete Hegseth. Hegseth telah mengancam untuk memberi label Anthropic sebagai "risiko rantai pasokan" atau menggunakan Undang-Undang Produksi Pertahanan untuk memaksakan kepatuhan. Pada malam Rabu, DoD menyampaikan apa yang disebutnya "tawaran terakhir dan final," memberikan perusahaan waktu hingga pukul 17:01 ET pada hari Jumat untuk merespons.
Juru bicara Anthropic mengakui menerima bahasa kontrak yang direvisi pada hari Rabu tetapi mengatakan itu mewakili "hampir tidak ada kemajuan." Menurutnya, kata-kata baru yang dibingkai sebagai kompromi dipasangkan dengan frasa hukum yang secara efektif akan memungkinkan perlindungan kritis untuk "diabaikan sesuka hati," melemahkan perlindungan yang dinyatakan.
Menanggapi tekanan yang meningkat, Amodei mengatakan: "Departemen Perang telah menyatakan mereka hanya akan berkontrak dengan perusahaan AI yang menyetujui 'penggunaan yang sah' dan menghapus perlindungan dalam kasus yang disebutkan di atas." Dia menambahkan bahwa pejabat telah mengancam untuk memotong Anthropic dari sistem mereka dan menunjuk perusahaan sebagai "risiko rantai pasokan" jika menolak; namun demikian, dia bersikeras, "kami tidak dapat dengan hati nurani yang baik menyetujui permintaan mereka."
Bagi Pentagon, masalahnya dibingkai secara berbeda. Juru bicara utama Sean Parnell mengatakan pada hari Kamis bahwa DoD "tidak tertarik" menggunakan sistem Anthropic untuk senjata otonom sepenuhnya atau melakukan pengawasan massal terhadap orang Amerika, mencatat praktik semacam itu akan ilegal. Sebaliknya, dia menegaskan bahwa departemen hanya ingin perusahaan mengizinkan penggunaan teknologinya untuk "semua tujuan yang sah," menggambarkannya sebagai "permintaan sederhana yang masuk akal."
Perselisihan juga menjadi pribadi di tingkat senior. Pada malam Kamis, wakil menteri pertahanan AS Emil Michael menyerang Amodei di X, mengklaim eksekutif tersebut "tidak menginginkan apa-apa selain mencoba mengendalikan Militer AS secara pribadi." Michael melangkah lebih jauh, menulis, "Sungguh memalukan bahwa Dario Amodei adalah pembohong dan memiliki kompleks Tuhan."
Namun, Anthropic telah mendapatkan dukungan signifikan dari bagian sektor teknologi. Dalam surat terbuka, lebih dari 200 pekerja dari Google dan OpenAI secara publik mendukung posisi perusahaan. Selain itu, mantan pejabat DoD mengatakan kepada BBC bahwa pembenaran Hegseth untuk menggunakan label "risiko rantai pasokan" tampak "sangat lemah," menimbulkan pertanyaan tentang ketahanan kasus Pentagon.
Konfrontasi juga telah menjadi batu ujian dalam debat yang lebih luas tentang kebijakan etika ai militer. Peneliti AI dan advokat kebebasan sipil mengamati dengan cermat, memandang kasus ini sebagai tes awal seberapa jauh badan pertahanan dapat mendorong laboratorium swasta untuk melonggarkan pembatasan bawaan pada sistem canggih.
Terlepas dari retorika yang meningkat, Amodei telah menekankan bahwa dia "sangat percaya pada pentingnya eksistensial penggunaan AI untuk membela Amerika Serikat." Dia membingkai masalah ini sebagai masalah penyebaran yang bertanggung jawab, bukan penentangan terhadap pertahanan nasional, dengan alasan bahwa kredibilitas jangka panjang kemampuan AI AS tergantung pada penegakan norma-norma demokratis.
Perwakilan Anthropic mengatakan organisasi tetap "siap untuk melanjutkan pembicaraan dan berkomitmen pada kesinambungan operasional untuk Departemen dan para pejuang Amerika." Namun, dengan waktu tenggat Pentagon yang terus berjalan dan ancaman penunjukan rantai pasokan masih di atas meja, kedua belah pihak menghadapi tekanan untuk menyelesaikan kebuntuan tanpa menggagalkan inovasi penting.
Pada akhirnya, konflik Anthropic-Pentagon mengenai perlindungan, pengawasan, dan otonomi telah menjadi kasus awal yang menentukan dalam tata kelola AI militer. Hasilnya kemungkinan akan membentuk bagaimana model ai anthropic di masa depan dan sistem pesaing dikontrak, dibatasi, dan diterapkan di seluruh operasi pertahanan AS.


