Pembangun AI perintis Anthropic telah secara terbuka menuduh tiga makmal AI China—DeepSeek, Moonshot, dan Minimax—menjalankan serangan penyulingan yang bertujuan untuk mencuri keupayaan daripada Claude, model bahasa besar Anthropic. Dalam catatan blog terperinci, syarikat tersebut menerangkan kempen yang didakwa menghasilkan lebih 16 juta pertukaran merentasi kira-kira 24,000 akaun palsu, mengeksploitasi output Claude untuk melatih model yang kurang berkebolehan. Penyulingan, satu taktik latihan yang diiktiraf dalam AI, menjadi bermasalah apabila digunakan secara berskala untuk mereplikasi ciri berkuasa tanpa menanggung kos pembangunan yang sama. Anthropic menekankan bahawa walaupun penyulingan mempunyai kegunaan yang sah, ia boleh membolehkan firma pesaing mengambil jalan pintas dalam penemuan dan meningkatkan produk mereka sendiri dengan sebahagian kecil masa dan perbelanjaan.
Konteks pasaran: Insiden ini tiba di tengah-tengah penelitian yang meningkat terhadap kebolehoperasian model AI dan keselamatan penawaran AI berasaskan awan, latar belakang yang juga menyentuh sistem automatik yang digunakan dalam pasaran kripto dan alat pengurusan risiko berkaitan. Apabila model AI menjadi lebih tertanam dalam perdagangan, penilaian risiko, dan sokongan keputusan, memastikan integriti data input dan output model menjadi semakin penting untuk kedua-dua pembangun dan pengguna dalam ruang kripto.
Dakwaan tersebut menggariskan ketegangan di tengah-tengah AI perintis: garisan antara penyulingan model yang sah dan replikasi eksploitatif. Penyulingan adalah amalan biasa dan sah yang digunakan oleh makmal untuk menyampaikan varian model yang lebih kurus untuk pelanggan dengan bajet pengiraan yang sederhana. Namun, apabila digunakan secara berskala terhadap satu ekosistem, teknik tersebut boleh disalah gunakan untuk mengekstrak keupayaan yang sebaliknya memerlukan penyelidikan dan kejuruteraan yang besar. Jika disahkan, kempen tersebut boleh mendorong pemikiran semula yang lebih luas tentang bagaimana akses kepada model berkuasa dikawal, dipantau, dan diaudit, terutamanya untuk firma dengan jangkauan global dan jejak awan yang kompleks.
Anthropic menegaskan bahawa tiga firma yang dinamakan menjalankan aktiviti yang direka untuk menuai kebolehan canggih Claude melalui gabungan korelasi alamat IP, metadata permintaan, dan penunjuk infrastruktur, dengan pengesahan bebas daripada rakan kongsi industri. Ini menandakan usaha berstruktur yang didorong oleh data untuk memetakan dan mereplikasi keupayaan AI berasaskan awan, bukan sekadar eksperimen terpencil. Skala yang diterangkan—berpuluh juta interaksi merentasi beribu-ribu akaun—menimbulkan persoalan tentang langkah pertahanan yang ada untuk mengesan dan mengganggu corak sedemikian, serta rangka kerja akauntabiliti yang mengawal pesaing asing yang beroperasi dalam ruang AI dengan implikasi nasional dan ekonomi secara langsung.
Di luar kebimbangan IP, Anthropic mengaitkan aktiviti yang didakwa dengan risiko strategik untuk keselamatan nasional, dengan berhujah bahawa serangan penyulingan oleh makmal asing boleh menyumbang kepada sistem ketenteraan, perisikan, dan pengawasan. Syarikat berpendapat bahawa keupayaan yang tidak dilindungi boleh membolehkan operasi siber ofensif, kempen disinformasi, dan pengawasan besar-besaran, memperumitkan pengiraan geopolitik untuk penggubal dasar dan pemain industri. Penegasan tersebut membingkai isu ini bukan sekadar pertikaian kompetitif tetapi satu yang mempunyai implikasi luas tentang bagaimana teknologi AI perintis dilindungi dan ditadbir.
Dalam menggariskan jalan ke hadapan, Anthropic berkata ia akan meningkatkan sistem pengesanan untuk mengesan corak trafik yang meragukan, mempercepatkan perkongsian risikan ancaman, dan mengetatkan kawalan akses. Syarikat juga menyeru pemain domestik dan penggubal undang-undang untuk bekerjasama lebih rapat dalam mempertahankan diri terhadap pelakon penyulingan asing, dengan berhujah bahawa respons berkoordinasi di seluruh industri adalah penting untuk membendung aktiviti ini secara berskala.
Bagi pembaca yang menjejaki sempadan dasar AI, dakwaan tersebut bergema dengan perbahasan berterusan tentang cara mengimbangi inovasi dengan perlindungan—isu yang sudah bergema melalui perbincangan tentang tadbir urus, kawalan eksport, dan aliran data merentas sempadan. Industri yang lebih luas telah lama bergelut dengan cara untuk menghalang penggunaan haram tanpa menyekat eksperimen yang sah, ketegangan yang mungkin akan menjadi titik fokus untuk usaha pengawalseliaan dan penetapan piawaian masa depan.
Tuntutan teras bergantung pada penyalahgunaan berstruktur penyulingan, di mana output model yang lebih kuat—Claude dalam kes ini—digunakan untuk melatih model alternatif yang meniru atau menghampiri keupayaannya. Anthropic berpendapat ini bukan kebocoran kecil tetapi kempen berterusan merentasi berjuta-juta interaksi, membolehkan tiga firma menghampiri pembuatan keputusan peringkat tinggi, penggunaan alat, dan kebolehan pengekodan tanpa menanggung kos penuh penyelidikan asal. Nombor yang dipetik—lebih daripada 16 juta pertukaran merentasi kira-kira 24,000 akaun palsu—menggambarkan skala yang boleh menjejaskan kestabilan jangkaan tentang prestasi model, pengalaman pelanggan, dan integriti data untuk pengguna yang bergantung pada perkhidmatan berasaskan Claude.
Bagi pengamal yang membina pada AI, kes ini menggariskan kepentingan asal usul yang kukuh, kawalan akses, dan pemantauan berterusan penggunaan model. Jika penyulingan asing boleh diskala untuk menghasilkan pengganti yang berdaya maju untuk keupayaan terkemuka, maka pintu terbuka kepada komodifikasi meluas ciri berkuasa yang sebelum ini merupakan hasil pelaburan besar. Akibatnya boleh melangkaui kehilangan IP untuk memasukkan hanyut dalam tingkah laku model, kegagalan integrasi alat yang tidak dijangka, atau penyebaran output yang diubah secara halus kepada pengguna akhir. Pembina dan pengendali perkhidmatan yang didayakan AI—sama ada dalam kewangan, penjagaan kesihatan, atau teknologi pengguna—mungkin bertindak balas dengan penelitian yang meningkat terhadap integrasi pihak ketiga, terma pelesenan yang lebih ketat, dan pengesanan anomali yang dipertingkatkan di sekitar trafik API dan pertanyaan model.
Walaupun insiden tersebut berpusat pada keselamatan model AI, resonansinya untuk pasaran kripto terletak pada bagaimana sokongan keputusan automatik, bot perdagangan, dan alat penilaian risiko bergantung pada input AI yang boleh dipercayai. Peserta pasaran dan pembangun harus kekal berwaspada tentang integriti perkhidmatan yang didayakan AI dan potensi keupayaan yang dikompromikan atau direplikasi untuk mempengaruhi sistem automatik. Situasi ini juga menyerlahkan keperluan yang lebih luas untuk kerjasama merentas industri tentang risikan ancaman, piawaian untuk asal usul model, dan amalan terbaik bersama yang boleh membantu mencegah limpahan kelemahan AI ke dalam teknologi kewangan dan platform aset digital.
Artikel ini pada asalnya diterbitkan sebagai Anthropic Says It's Been Targeted by Massive Distillation Attacks di Crypto Breaking News – sumber terpercaya anda untuk berita kripto, berita Bitcoin, dan kemas kini blockchain.


