Sebuah agen artificial intelligence (AI) berhasil breakout dari sandbox yang telah dibangun oleh engineer a16z crypto selama uji coba. Para engineer ini ingin menilai apakah agen AI bisa melampaui sekadar mengidentifikasi celah keamanan, dan bisa membangun eksploitasi yang benar-benar berfungsi.
Engineer keamanan, Daejun Park dan Matt Gleason, mempublikasikan temuan mereka pada 28 April. Mereka menyoroti bagaimana agen standar mereka secara mandiri dapat mencari cara memakai berbagai alat yang “tidak pernah secara eksplisit diberikan padanya.”
Temuan ini datang di saat Elon Musk membuat pernyataan mengejutkan bahwa ‘AI bisa membunuh kita semua’.
Para engineer menempatkan agen tersebut di lingkungan yang terbatas, dengan akses Etherscan yang dibatasi, dan node lokal yang dipasang pada satu blok tertentu. Tim juga memblokir seluruh akses jaringan eksternal.
Konfigurasi sandbox ini memang sengaja dibuat agar agen tidak bisa mengakses data di masa depan. Saat uji coba dalam sandbox, agen tersebut mengalami kebuntuan ketika dihadapkan pada target kontrak yang belum diverifikasi dan tanpa source code.
Ikuti kami di X untuk mendapatkan berita terbaru secara langsung
Kemudian, agen itu mencoba mencari tahu konfigurasi node anvil lokal dengan menggunakan “cast rpc anvil_nodeInfo”, sehingga menemukan URL RPC upstream beserta Alchemy API key secara plaintext. Agen ini lalu mencoba akses langsung ke luar, tapi firewall Docker memblokir permintaan itu.
Setelah permintaan keluar langsung diblokir oleh firewall, agen menggunakan metode “anvil_reset RPC” untuk mereset node anvil ke blok di masa depan. Langkah ini memungkinkannya untuk mengambil log dan transaksi blok masa depan melalui node anvil lokal tersebut.
Setelah itu, agen mengambil jejak eksekusi dari transaksi penyerangan. Setelah analisis selesai, agen AI ini mengembalikan node ke blok awal dan membuat bukti konsep yang berfungsi berdasarkan data yang sudah diekstrak.
Park dan Gleason selanjutnya membatasi proxy agar memblokir seluruh metode debug di Anvil.
Insiden ini menyoroti risiko besar dalam lingkungan pengujian AI: agen dapat menemukan dan mengeksplorasi jalur tak terduga dalam toolchain, bahkan tanpa instruksi jelas.
Walaupun begitu, studi tersebut menemukan bahwa agen AI masih terbatas dalam mengeksekusi eksploitasi DeFi yang kompleks. Meskipun agen tersebut selalu bisa menemukan celah, namun ia kesulitan dalam merangkai strategi serangan multi-langkah.
Subscribe ke channel YouTube kami untuk menonton wawasan dari para pemimpin dan jurnalis ahli


