Pengembang AI Frontier Anthropic secara terbuka menuduh tiga laboratorium AI China—DeepSeek, Moonshot, dan Minimax—melakukan serangan distilasi yang bertujuan untuk menyedotPengembang AI Frontier Anthropic secara terbuka menuduh tiga laboratorium AI China—DeepSeek, Moonshot, dan Minimax—melakukan serangan distilasi yang bertujuan untuk menyedot

Anthropic Mengatakan Telah Menjadi Target Serangan Distilasi Masif

2026/02/25 10:51
durasi baca 7 menit
Anthropic Mengatakan Telah Menjadi Target Serangan Distilasi Besar-besaran

Pengembang AI terdepan Anthropic telah secara publik menuduh tiga laboratorium AI Tiongkok—DeepSeek, Moonshot, dan Minimax—melakukan serangan distilasi yang bertujuan untuk mencuri kemampuan dari Claude, model bahasa besar milik Anthropic. Dalam postingan blog yang terperinci, perusahaan menjelaskan kampanye yang diduga menghasilkan lebih dari 16 juta pertukaran di sekitar 24.000 akun palsu, mengeksploitasi output Claude untuk melatih model yang kurang mampu. Distilasi, sebuah taktik pelatihan yang diakui dalam AI, menjadi bermasalah ketika diterapkan dalam skala besar untuk mereplikasi fitur-fitur kuat tanpa menanggung biaya pengembangan yang sama. Anthropic menekankan bahwa meskipun distilasi memiliki penggunaan yang sah, hal ini dapat memungkinkan perusahaan rival untuk mempersingkat terobosan dan meningkatkan produk mereka sendiri dengan sebagian kecil dari waktu dan biaya.

Poin-poin kunci

  • Distilasi melibatkan pelatihan model yang lebih lemah pada output dari model yang lebih kuat, sebuah metode yang banyak digunakan untuk menciptakan versi sistem AI yang lebih kecil dan lebih murah.
  • Anthropic menuduh bahwa DeepSeek, Moonshot, dan Minimax mengorkestrasi kampanye distilasi skala besar, menghasilkan jutaan interaksi dengan Claude di puluhan ribu akun palsu.
  • Serangan tersebut dilaporkan menargetkan kemampuan Claude yang berbeda, termasuk penalaran agentik, penggunaan alat, dan pengkodean, menandakan fokus pada kompetensi bernilai tinggi yang dapat ditransfer.
  • Perusahaan berpendapat bahwa kampanye distilasi asing membawa risiko geopolitik, berpotensi mempersenjatai aktor otoriter dengan kemampuan canggih untuk operasi siber, disinformasi, dan pengawasan.
  • Anthropic mengatakan akan memperkuat deteksi, berbagi intelijen ancaman, dan memperketat kontrol akses, sambil mendesak kerja sama industri yang lebih luas dan keterlibatan regulasi untuk melawan ancaman ini.

Konteks pasar: Insiden ini terjadi di tengah pengawasan yang meningkat terhadap interoperabilitas model AI dan keamanan penawaran AI berbasis cloud, latar belakang yang juga menyentuh sistem otomatis yang digunakan di pasar kripto dan alat manajemen risiko terkait. Saat model AI menjadi lebih tertanam dalam perdagangan, penilaian risiko, dan dukungan keputusan, memastikan integritas data input dan output model menjadi semakin penting bagi pengembang dan pengguna di ruang kripto.

Mengapa ini penting

Tuduhan tersebut menggarisbawahi ketegangan di jantung AI terdepan: garis antara distilasi model yang sah dan replikasi eksploitatif. Distilasi adalah praktik umum dan sah yang digunakan oleh laboratorium untuk memberikan varian model yang lebih ramping bagi pelanggan dengan anggaran komputasi yang sederhana. Namun, ketika dimanfaatkan dalam skala besar terhadap satu ekosistem, teknik ini dapat disalahgunakan untuk mengekstrak kemampuan yang seharusnya memerlukan penelitian dan rekayasa yang substansial. Jika dikonfirmasi, kampanye tersebut dapat mendorong pemikiran ulang yang lebih luas tentang bagaimana akses ke model yang kuat dikendalikan, dipantau, dan diaudit, terutama untuk perusahaan dengan jangkauan global dan jejak cloud yang kompleks.

Anthropic menegaskan bahwa ketiga perusahaan yang disebutkan melakukan kegiatan yang dirancang untuk memanen kemampuan canggih Claude melalui kombinasi korelasi alamat IP, metadata permintaan, dan indikator infrastruktur, dengan korroborasi independen dari mitra industri. Ini menandakan upaya terkoordinasi yang didorong data untuk memetakan dan mereplikasi kemampuan AI berbasis cloud, bukan hanya eksperimen terisolasi. Skala yang dijelaskan—puluhan juta interaksi di ribuan akun—menimbulkan pertanyaan tentang langkah-langkah pertahanan yang ada untuk mendeteksi dan mengganggu pola seperti itu, serta kerangka akuntabilitas yang mengatur pesaing asing yang beroperasi di ruang AI dengan implikasi nasional dan ekonomi langsung.

Di luar kekhawatiran IP, Anthropic menghubungkan aktivitas yang diduga dengan risiko strategis untuk keamanan nasional, dengan alasan bahwa serangan distilasi oleh laboratorium asing dapat masuk ke dalam sistem militer, intelijen, dan pengawasan. Perusahaan berpendapat bahwa kemampuan yang tidak terlindungi dapat memungkinkan operasi siber ofensif, kampanye disinformasi, dan pengawasan massal, memperumit kalkulasi geopolitik bagi pembuat kebijakan dan pemain industri. Pernyataan tersebut membingkai masalah ini bukan hanya sebagai sengketa kompetitif tetapi sebagai masalah dengan implikasi luas tentang bagaimana teknologi AI terdepan dijaga dan diatur.

Dalam menguraikan jalan ke depan, Anthropic mengatakan akan meningkatkan sistem deteksi untuk mengidentifikasi pola lalu lintas yang mencurigakan, mempercepat berbagi intelijen ancaman, dan memperketat kontrol akses. Perusahaan juga menyerukan kepada pemain domestik dan pembuat undang-undang untuk berkolaborasi lebih erat dalam bertahan melawan aktor distilasi asing, dengan alasan bahwa respons terkoordinasi di seluruh industri sangat penting untuk mengekang kegiatan ini dalam skala besar.

Bagi pembaca yang melacak garis depan kebijakan AI, tuduhan tersebut menggemakan perdebatan yang sedang berlangsung tentang bagaimana menyeimbangkan inovasi dengan perlindungan—isu yang sudah bergema melalui diskusi tentang tata kelola, kontrol ekspor, dan arus data lintas batas. Industri yang lebih luas telah lama bergulat dengan bagaimana mencegah penggunaan ilegal tanpa menghambat eksperimen yang sah, ketegangan yang kemungkinan akan menjadi titik fokus untuk upaya regulasi dan penetapan standar di masa depan.

Apa yang harus diperhatikan selanjutnya

  • Anthropic dan perusahaan yang dituduh mungkin menerbitkan detail atau klarifikasi lebih lanjut tentang tuduhan dan tanggapan masing-masing.
  • Badan intelijen ancaman dan penyedia cloud dapat merilis indikator kompromi yang diperbarui atau panduan defensif terkait serangan gaya distilasi.
  • Regulator dan pembuat undang-undang mungkin mengeluarkan atau menyempurnakan kebijakan yang mengatur akses model AI, berbagi data lintas batas, dan tindakan anti-pembajakan untuk model berkemampuan tinggi.
  • Peneliti independen dan perusahaan keamanan mungkin mereplikasi atau menantang metodologi yang digunakan untuk mengidentifikasi kampanye yang diduga, berpotensi memperluas basis bukti.
  • Kolaborasi industri dapat muncul untuk menetapkan praktik terbaik untuk melindungi kemampuan model terdepan dan untuk mengaudit proses distilasi model.

Sumber & verifikasi

  • Postingan blog Anthropic: Detecting and Preventing Distillation Attacks — pernyataan resmi yang merinci tuduhan dan kampanye yang dijelaskan.
  • Postingan status X Anthropic yang dirujuk dalam pengungkapan — catatan publik kontemporer tentang temuan perusahaan.
  • Liputan Cointelegraph dan materi terkait yang membahas agen AI, AI terdepan, dan kekhawatiran keamanan terkait yang dirujuk dalam artikel.
  • Diskusi terkait tentang peran distilasi dalam pelatihan AI dan potensi penyalahgunaannya di lingkungan kompetitif.

Serangan distilasi dan keamanan AI terdepan

Klaim inti bertumpu pada penyalahgunaan terstruktur distilasi, di mana output model yang lebih kuat—Claude dalam kasus ini—digunakan untuk melatih model alternatif yang meniru atau mendekati kemampuannya. Anthropic berpendapat ini bukan kebocoran kecil tetapi kampanye berkelanjutan di jutaan interaksi, memungkinkan ketiga perusahaan untuk mendekati pengambilan keputusan tingkat tinggi, penggunaan alat, dan kemampuan pengkodean tanpa menanggung biaya penuh penelitian asli. Angka yang dikutip—lebih dari 16 juta pertukaran di sekitar 24.000 akun palsu—menggambarkan skala yang dapat menggoyahkan ekspektasi tentang kinerja model, pengalaman pelanggan, dan integritas data bagi pengguna yang mengandalkan layanan berbasis Claude.

Apa yang diimplikasikan tuduhan untuk pengguna dan pembangun

Bagi praktisi yang membangun AI, kasus ini menggarisbawahi pentingnya asal usul yang kuat, kontrol akses, dan pemantauan berkelanjutan penggunaan model. Jika distilasi asing dapat diskalakan untuk menghasilkan pengganti yang layak untuk kemampuan terkemuka, maka pintu terbuka untuk komoditisasi luas fitur-fitur kuat yang sebelumnya merupakan hasil investasi substansial. Konsekuensinya dapat meluas melampaui kehilangan IP untuk mencakup pergeseran dalam perilaku model, kegagalan integrasi alat yang tidak terduga, atau propagasi output yang diubah secara halus kepada pengguna akhir. Pembangun dan operator layanan yang didukung AI—baik di bidang keuangan, kesehatan, atau teknologi konsumen—mungkin merespons dengan pengawasan yang meningkat terhadap integrasi pihak ketiga, ketentuan lisensi yang lebih ketat, dan deteksi anomali yang ditingkatkan seputar lalu lintas API dan kueri model.

Pertimbangan kunci untuk ekosistem kripto

Meskipun insiden berpusat pada keamanan model AI, resonansinya untuk pasar kripto terletak pada bagaimana dukungan keputusan otomatis, bot perdagangan, dan alat penilaian risiko bergantung pada input AI yang andal. Peserta pasar dan pengembang harus tetap waspada tentang integritas layanan yang didukung AI dan potensi kemampuan yang dikompromikan atau direplikasi untuk mempengaruhi sistem otomatis. Situasi ini juga menyoroti kebutuhan yang lebih luas untuk kolaborasi lintas industri pada intelijen ancaman, standar untuk asal usul model, dan praktik terbaik bersama yang dapat membantu mencegah tumpahan kerentanan AI ke dalam teknologi keuangan dan platform aset digital.

Apa yang harus dipantau dalam waktu dekat

  • Pembaruan publik dari Anthropic tentang temuan, indikator kompromi, dan tonggak remediasi apa pun.
  • Klarifikasi atau pernyataan dari DeepSeek, Moonshot, dan Minimax mengenai tuduhan.
  • Pedoman baru atau tindakan penegakan dari pembuat kebijakan yang ditujukan pada distilasi asing dan kontrol ekspor untuk kemampuan AI.
  • Alat pemantauan yang ditingkatkan dan strategi kontrol akses yang diadopsi oleh penyedia cloud yang menghosting model AI terdepan.
  • Penelitian independen yang memvalidasi atau menentang metode yang digunakan untuk mendeteksi pola distilasi dan skala aktivitas yang diklaim.

Artikel ini awalnya dipublikasikan sebagai Anthropic Says It's Been Targeted by Massive Distillation Attacks di Crypto Breaking News – sumber terpercaya Anda untuk berita kripto, berita Bitcoin, dan pembaruan blockchain.

Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi [email protected] agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.