Kajian ini membuka satu lagi pintu baharu untuk memahami skala penggunaan yang mungkin bersifat haram bagi ribuan pelaksanaan model bahasa besar sumber terbuka./Kajian ini membuka satu lagi pintu baharu untuk memahami skala penggunaan yang mungkin bersifat haram bagi ribuan pelaksanaan model bahasa besar sumber terbuka./

Open-source AI models yang mudah disalahgunakan oleh pihak jenayah, menurut para penyelidik./

2026/01/30 15:15

Hackers dan penjahat lainnya boleh dengan mudah mengambil alih komputer yang menjalankan model bahasa besar sumber terbuka di luar garis batas dan keterbatasan platform kecerdasan buatan utama, sehingga menciptakan risiko dan kerentanan keamanan, kata para peneliti pada hari Kamis, 29 Januari.

Para peretas boleh saja menargetkan komputer yang menjalankan LLM tersebut dan mengarahkannya untuk melakukan operasi spam, pembuatan konten phishing, atau kampanye disinformasi, sekaligus menghindari protokol keamanan platform, demikian kata para peneliti.

Penelitian yang dilakukan bersama oleh perusahaan keamanan siber SentinelOne dan Censys selama 293 hari dan dibagikan secara eksklusif kepada Reuters, membuka pandangan baru tentang skala kemungkinan penggunaan ilegal dari ribuan peluncuran LLM sumber terbuka. Penggunaan tersebut meliputi peretasan, ujaran kebencian dan pelecehan, konten kekerasan atau berdarah, pencurian data pribadi, penipuan atau scam, dan dalam beberapa kasus, materi pelecehan seksual anak-anak, kata para peneliti.

Sementara ribuan varian LLM sumber terbuka telah ada, sebagian besar LLM yang tersedia di host yang dapat diakses internet merupakan varian dari Llama Meta, Gemma Google DeepMind, dan lain-lain, menurut para peneliti. Meskipun beberapa model sumber terbuka dilengkapi dengan garis batas dan perlindungan, para peneliti mengidentifikasi ratusan kasus di mana garis batas tersebut secara jelas telah dihapus.

Perbincangan industri AI mengenai kontrol keamanan “mengabaikan kapasitas berlebih seperti ini yang jelas-jelas sedang dimanfaatkan untuk berbagai macam hal, sebagian sah secara hukum, sebagian jelas-jelas bersifat kriminal,” kata Juan Andres Guerrero-Saade, direktur eksekutif untuk penelitian intelijen dan keamanan di SentinelOne. Guerrero-Saade membandingkan situasi ini dengan sebuah “gunung es” yang belum sepenuhnya diperhitungkan secara tepat di seluruh industri dan komunitas sumber terbuka.

Penelitian meneliti prompt sistem

Penelitian tersebut menganalisis peluncuran LLM sumber terbuka yang dapat diakses publik melalui Ollama, sebuah alat yang memungkinkan individu dan organisasi untuk menjalankan versi mereka sendiri dari berbagai model bahasa besar.

Para peneliti berhasil melihat prompt sistem—yaitu instruksi yang menentukan bagaimana model tersebut berperilaku—pada sekitar seperempat dari LLM yang mereka amati. Dari jumlah tersebut, mereka menemukan bahwa 7,5% di antaranya berpotensi memungkinkan aktivitas yang merugikan.

Kira-kira 30% dari host yang diamati para peneliti beroperasi di Tiongkok, dan sekitar 20% berada di Amerika Serikat.

Rachel Adams, CEO dan pendiri Global Center on AI Governance, mengatakan dalam sebuah email bahwa setelah model terbuka dirilis, tanggung jawab atas apa yang terjadi selanjutnya menjadi tanggung jawab bersama di seluruh ekosistem, termasuk laboratorium asal model tersebut.

“Laboratorium tidak bertanggung jawab atas setiap penyalahgunaan di hilir (yang sulit untuk diprediksi), tetapi mereka tetap memiliki kewajiban penting untuk mengantisipasi kerugian yang dapat diperkirakan, mendokumentasikan risiko, serta menyediakan alat mitigasi dan panduan, terutama mengingat kapasitas penegakan hukum yang tidak merata di seluruh dunia,” kata Adams.

Juru bicara Meta menolak untuk menanggapi pertanyaan mengenai tanggung jawab para pengembang dalam mengatasi kekhawatiran terkait penyalahgunaan di hilir model sumber terbuka dan cara melaporkan kekhawatiran tersebut, namun menekankan adanya alat Perlindungan Llama untuk para pengembang Llama, serta Panduan Penggunaan Bertanggung Jawab Meta Llama.

Ram Shankar Siva Kumar, Ketua Tim Merah Microsoft AI, mengatakan dalam sebuah email bahwa Microsoft percaya model sumber terbuka “memainkan peran penting” dalam berbagai bidang, tetapi, “pada saat yang sama, kami sangat sadar bahwa model terbuka, seperti semua teknologi transformatif, dapat disalahgunakan oleh para penjahat jika dirilis tanpa perlindungan yang memadai.”

Microsoft melakukan evaluasi pra-rilis, termasuk proses untuk menilai “risiko dalam skenario yang terhubung ke internet, self-hosted, dan pemanggilan alat, di mana potensi penyalahgunaan bisa sangat tinggi,” katanya. Perusahaan juga memantau ancaman yang muncul dan pola penyalahgunaan. “Pada akhirnya, inovasi terbuka yang bertanggung jawab memerlukan komitmen bersama antara para pembuat, peluncur, peneliti, dan tim keamanan.”

Ollama tidak menanggapi permintaan komentar. Alphabet’s Google dan Anthropic tidak menanggapi pertanyaan. – Rappler.com

/
Penafian: Artikel yang disiarkan semula di laman web ini diperoleh daripada platform awam dan disediakan untuk tujuan maklumat sahaja. Mereka tidak semestinya mencerminkan pandangan MEXC. Semua hak kekal dengan pengarang asal. Jika anda percaya ada kandungan yang melanggar hak pihak ketiga, sila hubungi [email protected] untuk dialih keluar. MEXC tidak memberi jaminan mengenai ketepatan, kesempurnaan atau ketepatan masa kandungan dan tidak bertanggungjawab terhadap sebarang tindakan yang diambil berdasarkan maklumat yang diberikan. Kandungan itu tidak membentuk nasihat kewangan, undang-undang atau profesional lain, dan ia juga tidak boleh dianggap sebagai cadangan atau pengesahan oleh MEXC.