Hackers dan penjahat lainnya boleh dengan mudah mengambil alih komputer yang menjalankan model bahasa besar sumber terbuka di luar garis batas dan keterbatasan platform kecerdasan buatan utama, sehingga menciptakan risiko dan kerentanan keamanan, kata para peneliti pada hari Kamis, 29 Januari.
Para peretas boleh saja menargetkan komputer yang menjalankan LLM tersebut dan mengarahkannya untuk melakukan operasi spam, pembuatan konten phishing, atau kampanye disinformasi, sekaligus menghindari protokol keamanan platform, demikian kata para peneliti.
Penelitian yang dilakukan bersama oleh perusahaan keamanan siber SentinelOne dan Censys selama 293 hari dan dibagikan secara eksklusif kepada Reuters, membuka pandangan baru tentang skala kemungkinan penggunaan ilegal dari ribuan peluncuran LLM sumber terbuka. Penggunaan tersebut meliputi peretasan, ujaran kebencian dan pelecehan, konten kekerasan atau berdarah, pencurian data pribadi, penipuan atau scam, dan dalam beberapa kasus, materi pelecehan seksual anak-anak, kata para peneliti.
Sementara ribuan varian LLM sumber terbuka telah ada, sebagian besar LLM yang tersedia di host yang dapat diakses internet merupakan varian dari Llama Meta, Gemma Google DeepMind, dan lain-lain, menurut para peneliti. Meskipun beberapa model sumber terbuka dilengkapi dengan garis batas dan perlindungan, para peneliti mengidentifikasi ratusan kasus di mana garis batas tersebut secara jelas telah dihapus.
Perbincangan industri AI mengenai kontrol keamanan “mengabaikan kapasitas berlebih seperti ini yang jelas-jelas sedang dimanfaatkan untuk berbagai macam hal, sebagian sah secara hukum, sebagian jelas-jelas bersifat kriminal,” kata Juan Andres Guerrero-Saade, direktur eksekutif untuk penelitian intelijen dan keamanan di SentinelOne. Guerrero-Saade membandingkan situasi ini dengan sebuah “gunung es” yang belum sepenuhnya diperhitungkan secara tepat di seluruh industri dan komunitas sumber terbuka.
Penelitian tersebut menganalisis peluncuran LLM sumber terbuka yang dapat diakses publik melalui Ollama, sebuah alat yang memungkinkan individu dan organisasi untuk menjalankan versi mereka sendiri dari berbagai model bahasa besar.
Para peneliti berhasil melihat prompt sistem—yaitu instruksi yang menentukan bagaimana model tersebut berperilaku—pada sekitar seperempat dari LLM yang mereka amati. Dari jumlah tersebut, mereka menemukan bahwa 7,5% di antaranya berpotensi memungkinkan aktivitas yang merugikan.
Kira-kira 30% dari host yang diamati para peneliti beroperasi di Tiongkok, dan sekitar 20% berada di Amerika Serikat.
Rachel Adams, CEO dan pendiri Global Center on AI Governance, mengatakan dalam sebuah email bahwa setelah model terbuka dirilis, tanggung jawab atas apa yang terjadi selanjutnya menjadi tanggung jawab bersama di seluruh ekosistem, termasuk laboratorium asal model tersebut.
“Laboratorium tidak bertanggung jawab atas setiap penyalahgunaan di hilir (yang sulit untuk diprediksi), tetapi mereka tetap memiliki kewajiban penting untuk mengantisipasi kerugian yang dapat diperkirakan, mendokumentasikan risiko, serta menyediakan alat mitigasi dan panduan, terutama mengingat kapasitas penegakan hukum yang tidak merata di seluruh dunia,” kata Adams.
Juru bicara Meta menolak untuk menanggapi pertanyaan mengenai tanggung jawab para pengembang dalam mengatasi kekhawatiran terkait penyalahgunaan di hilir model sumber terbuka dan cara melaporkan kekhawatiran tersebut, namun menekankan adanya alat Perlindungan Llama untuk para pengembang Llama, serta Panduan Penggunaan Bertanggung Jawab Meta Llama.
Ram Shankar Siva Kumar, Ketua Tim Merah Microsoft AI, mengatakan dalam sebuah email bahwa Microsoft percaya model sumber terbuka “memainkan peran penting” dalam berbagai bidang, tetapi, “pada saat yang sama, kami sangat sadar bahwa model terbuka, seperti semua teknologi transformatif, dapat disalahgunakan oleh para penjahat jika dirilis tanpa perlindungan yang memadai.”
Microsoft melakukan evaluasi pra-rilis, termasuk proses untuk menilai “risiko dalam skenario yang terhubung ke internet, self-hosted, dan pemanggilan alat, di mana potensi penyalahgunaan bisa sangat tinggi,” katanya. Perusahaan juga memantau ancaman yang muncul dan pola penyalahgunaan. “Pada akhirnya, inovasi terbuka yang bertanggung jawab memerlukan komitmen bersama antara para pembuat, peluncur, peneliti, dan tim keamanan.”
Ollama tidak menanggapi permintaan komentar. Alphabet’s Google dan Anthropic tidak menanggapi pertanyaan. – Rappler.com
/

