Penelitian terbaru Anthropic mengungkapkan bahwa agen AI-nya mampu mengeksploitasi kerentanan dalam kode blockchain, mencuri $4,6 juta dari kontrak simulasi. Pengujian perusahaan melacak serangan kontrak pintar nyata di Ethereum, Binance Smart Chain, dan Base, dari tahun 2020 hingga 2025. Temuan ini menggarisbawahi ancaman yang berkembang dari serangan siber berbasis AI yang menargetkan sistem blockchain.
Pengujian Anthropic berfokus pada kontrak pintar, yang menggerakkan transaksi cryptocurrency tanpa intervensi manusia. Setiap kelemahan dalam kode adalah pintu gerbang potensial untuk pencurian, karena semua baris kontrak tersedia untuk umum. Dalam satu pengujian, agen AI menemukan dan mengeksploitasi bug dalam waktu satu jam, menyebabkan kerugian simulasi jutaan dolar.
Perusahaan menggunakan tolok ukur baru, SCONE-bench, untuk mengukur jumlah dolar yang dicuri selama serangan simulasi. "Kami berfokus pada dampak moneter daripada hanya jumlah bug yang terdeteksi," jelas Anthropic. Agen-agen tersebut bekerja dengan batas waktu ketat, dengan satu jam untuk menemukan kelemahan, mengeksploitasinya, dan melampaui ambang batas saldo kripto yang ditetapkan.
Dari 405 kontrak yang diuji, 51,1% berhasil dibobol. Secara total, agen AI mengambil $550,1 juta dalam pencurian simulasi. Dari model-model terdepan yang diuji, Opus 4.5, Sonnet 4.5, dan GPT-5 mampu mengeksploitasi 19 kontrak, mencuri $4,6 juta. Opus 4.5 memimpin serangan, mengambil $4,5 juta sendirian.
Anthropic juga mendorong agen AI-nya untuk mengidentifikasi kerentanan baru yang sebelumnya tidak diketahui dalam kontrak aktif. Menggunakan kontrak yang digunakan pada Binance Smart Chain antara April dan Oktober 2025, agen AI menemukan dua kelemahan zero-day. Kerentanan baru ini menghasilkan $3.694 dalam pendapatan simulasi.
Satu kelemahan berasal dari tag view yang hilang dalam fungsi kalkulator publik. Agen AI mengeksploitasi ini dengan menaikkan pasokan token dan menjualnya untuk mendapatkan keuntungan. "Kelemahan ini bisa menghasilkan hampir $19.000 selama likuiditas puncak," catat Anthropic.
Kelemahan kedua melibatkan penanganan biaya yang rusak dalam peluncur token. Agen AI mengeksploitasi ini dengan menarik biaya perdagangan, mengakibatkan serangan dunia nyata yang menguras sekitar $1.000. Dalam empat hari, bug tersebut diperbaiki setelah AI menemukannya, menggambarkan kecepatan di mana kerentanan dapat dieksploitasi.
Penelitian ini juga menganalisis efektivitas biaya penggunaan AI untuk serangan blockchain. Pemindaian penuh oleh GPT-5 di 2.849 kontrak rata-rata $1,22 per eksekusi. Mendeteksi setiap kontrak yang rentan membutuhkan biaya $1.738, dengan pendapatan eksploitasi rata-rata mencapai $1.847. Keuntungan bersih dari eksploitasi ini rata-rata $109 per eksekusi.
Seiring teknologi meningkat, biaya melakukan eksploitasi berbasis AI terus menurun. "Selama tahun lalu, biaya melaksanakan eksploitasi yang berhasil telah turun lebih dari 70%," kata Anthropic. Pengurangan ini telah memudahkan penyerang untuk meningkatkan operasi mereka, menarik 3,4 kali lebih banyak eksploitasi untuk jumlah daya komputasi yang sama.
Temuan ini menunjukkan seberapa cepat agen AI dapat mendeteksi, mengeksploitasi, dan mendapatkan keuntungan dari kerentanan dalam kontrak pintar. Penelitian ini juga menyoroti insentif finansial yang mendorong serangan ini, serta meningkatnya kecanggihan kejahatan siber berbasis AI.
Postingan Agen AI Anthropic Mencuri $4,6 Juta dalam Pengujian Eksploitasi Blockchain pertama kali muncul di CoinCentral.



