Para peneliti menemukan bahwa Sora 2 dapat menghasilkan video deepfake realistis yang menyebarkan klaim palsu dengan sedikit usaha, mengintensifkan pengawasan terhadap kontrol keamanannya.Para peneliti menemukan bahwa Sora 2 dapat menghasilkan video deepfake realistis yang menyebarkan klaim palsu dengan sedikit usaha, mengintensifkan pengawasan terhadap kontrol keamanannya.

Studi Menemukan Bahwa Sora 2 dari OpenAI Dapat Membuat Deepfake yang Meyakinkan dengan Perintah

2025/10/22 08:39
durasi baca 1 menit
Untuk memberikan masukan atau menyampaikan kekhawatiran terkait konten ini, silakan hubungi kami di [email protected]
Para peneliti menemukan bahwa Sora 2 dapat menghasilkan video deepfake realistis yang menyebarkan klaim palsu dengan sedikit usaha, meningkatkan pengawasan terhadap kontrol keamanannya.
Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi [email protected] agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.