TLDR OpenAI mengeluarkan peringatan bahwa model AI generasi berikutnya menimbulkan risiko keamanan siber "tinggi" dan dapat menciptakan eksploitasi zero-day GPT-5.1-Codex-Max berhasil mencapaiTLDR OpenAI mengeluarkan peringatan bahwa model AI generasi berikutnya menimbulkan risiko keamanan siber "tinggi" dan dapat menciptakan eksploitasi zero-day GPT-5.1-Codex-Max berhasil mencapai

OpenAI Memperingatkan Model AI Generasi Berikutnya Menimbulkan Risiko Keamanan Siber Tinggi

2025/12/11 21:18

TLDR

  • OpenAI mengeluarkan peringatan bahwa model AI generasi berikutnya menimbulkan risiko keamanan siber "tinggi" dan dapat menciptakan eksploit zero-day
  • GPT-5.1-Codex-Max mencapai 76% pada tes keamanan siber pada November 2025, peningkatan tajam dari 27% yang dicapai GPT-5 pada Agustus 2024
  • Perusahaan ini meluncurkan Aardvark, agen AI yang berfokus pada keamanan yang mengidentifikasi kerentanan kode dan menyarankan perbaikan
  • OpenAI berencana membentuk Dewan Risiko Frontier dengan pakar keamanan siber dan menawarkan akses bertingkat ke fitur keamanan yang ditingkatkan
  • Google dan Anthropic juga telah memperkuat sistem AI mereka terhadap ancaman keamanan siber dalam beberapa bulan terakhir

OpenAI merilis peringatan pada 10 Desember yang menyatakan bahwa model AI mendatang mereka dapat menciptakan risiko keamanan siber yang serius. Perusahaan di balik ChatGPT mengatakan model canggih ini mungkin dapat membangun eksploit jarak jauh zero-day yang menargetkan sistem yang terlindungi dengan baik.

Perusahaan AI tersebut juga mencatat bahwa model ini dapat membantu operasi intrusi perusahaan atau industri yang kompleks yang mengarah pada konsekuensi dunia nyata. OpenAI membagikan informasi ini dalam postingan blog yang membahas kemampuan teknologinya yang terus berkembang.

Peringatan ini mencerminkan kekhawatiran di seluruh industri AI tentang potensi penyalahgunaan model yang semakin kuat. Beberapa perusahaan teknologi besar telah mengambil tindakan untuk mengamankan sistem AI mereka terhadap ancaman serupa.

Google mengumumkan pembaruan keamanan browser Chrome minggu ini untuk memblokir serangan injeksi prompt tidak langsung pada agen AI. Perubahan ini dilakukan sebelum peluncuran lebih luas fitur agentik Gemini di Chrome.

Anthropic mengungkapkan pada November 2025 bahwa aktor ancaman, yang berpotensi terkait dengan kelompok yang disponsori negara Tiongkok, telah menggunakan alat Claude Code mereka untuk operasi spionase berbasis AI. Perusahaan menghentikan kampanye tersebut sebelum menyebabkan kerusakan.

Keterampilan Keamanan Siber AI Berkembang Pesat

OpenAI membagikan data yang menunjukkan kemajuan pesat dalam kemampuan keamanan siber AI. Model GPT-5.1-Codex-Max perusahaan mencapai 76% pada tantangan capture-the-flag pada November 2025.

Ini merupakan lompatan besar dari skor 27% yang dicapai GPT-5 pada Agustus 2024. Tantangan capture-the-flag mengukur seberapa baik sistem dapat menemukan dan mengeksploitasi kelemahan keamanan.

Peningkatan dalam beberapa bulan saja menunjukkan betapa cepatnya model AI memperoleh kemampuan keamanan siber tingkat lanjut. Keterampilan ini dapat digunakan untuk tujuan defensif maupun ofensif.

Alat Keamanan Baru dan Langkah Perlindungan

OpenAI mengatakan sedang membangun model yang lebih kuat untuk pekerjaan keamanan siber defensif. Perusahaan ini mengembangkan alat untuk membantu tim keamanan mengaudit kode dan memperbaiki kerentanan dengan lebih mudah.

Perusahaan yang didukung Microsoft ini menggunakan beberapa lapisan keamanan termasuk kontrol akses, penguatan infrastruktur, kontrol keluar, dan sistem pemantauan. OpenAI melatih model AI-nya untuk menolak permintaan berbahaya sambil tetap berguna untuk pendidikan dan pekerjaan pertahanan.

Perusahaan memperluas pemantauan di semua produk menggunakan model frontier untuk menangkap aktivitas siber yang berpotensi berbahaya. OpenAI bermitra dengan kelompok red teaming ahli untuk menguji dan meningkatkan sistem keamanannya.

Alat Aardvark dan Dewan Penasihat

OpenAI memperkenalkan Aardvark, agen AI yang bekerja sebagai peneliti keamanan. Alat ini sedang dalam pengujian beta privat dan dapat memindai kode untuk kerentanan dan merekomendasikan patch.

Pengelola dapat dengan cepat menerapkan perbaikan yang diusulkan Aardvark. OpenAI berencana menawarkan Aardvark secara gratis ke repositori kode sumber terbuka non-komersial tertentu.

Perusahaan akan meluncurkan program yang memberikan pengguna dan pelanggan pertahanan siber yang memenuhi syarat akses bertingkat ke kemampuan yang ditingkatkan. OpenAI sedang membentuk Dewan Risiko Frontier, yang menghadirkan pembela siber eksternal dan pakar keamanan untuk bekerja dengan tim internalnya.

Dewan ini akan mulai dengan berfokus pada keamanan siber sebelum memperluas ke area kemampuan frontier lainnya. OpenAI akan segera memberikan detail tentang program akses tepercaya untuk pengguna dan pengembang yang bekerja pada pertahanan siber.

Postingan OpenAI Memperingatkan Model AI Generasi Berikutnya Menimbulkan Risiko Keamanan Siber Tinggi pertama kali muncul di Blockonomi.

Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi [email protected] agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.