DeepSeek, startup AI asal Tiongkok, merilis pratinjau seri model V4-nya, menandai iterasi terbaru dari jajaran model bahasa besarnya. Pengumuman ini memperkenalkan dua varian dalam seri tersebut, yang disebut sebagai V4-Pro dan V4-Flash, keduanya dirancang untuk menyeimbangkan performa, efisiensi, dan biaya sesuai kebutuhan penerapan.
Menurut pengungkapan teknis perusahaan, model V4-Pro adalah konfigurasi yang lebih mumpuni, dibangun dengan sekitar 1,6 triliun total parameter dan 49 miliar parameter aktif. Model ini digambarkan mampu menghadirkan performa yang mendekati sistem closed-source terkemuka, terutama dalam bidang seperti pengambilan pengetahuan dunia, penalaran, matematika, pengkodean, dan tugas-tugas terkait STEM.
Dalam evaluasi komparatif yang dirujuk oleh pengembang, V4-Pro disebut memimpin model open-source saat ini di berbagai tolok ukur, hanya tertinggal dari Gemini 3.1 Pro milik Google dalam penilaian berbasis pengetahuan.
Varian kedua, V4-Flash, disajikan sebagai alternatif yang lebih ringan dan hemat biaya, mengandung sekitar 284 miliar total parameter dan 13 miliar parameter aktif. Meskipun lebih kecil skalanya, model ini dilaporkan mampu mempertahankan kesetaraan yang hampir sama dengan versi Pro pada tugas-tugas berbasis agen yang lebih sederhana, sekaligus menawarkan waktu respons yang lebih cepat dan biaya operasional yang lebih rendah. Konfigurasi ini diposisikan untuk aplikasi dengan throughput tinggi di mana efisiensi diprioritaskan di atas kapasitas model maksimum.
DeepSeek juga menekankan perubahan struktural dan arsitektur yang diperkenalkan dalam seri V4, termasuk mekanisme perhatian baru yang menggabungkan kompresi tingkat token dengan teknik sparse attention. Penyesuaian ini dimaksudkan untuk meningkatkan efisiensi pemrosesan konteks panjang sekaligus mengurangi kebutuhan komputasi dan memori. Perusahaan mencatat bahwa jendela konteks satu juta token telah menjadi standar di seluruh layanannya, mencerminkan dorongan yang lebih luas menuju penanganan konteks yang diperluas dalam model berskala besar.
Fokus lebih lanjut dari rilis ini adalah fungsionalitas berorientasi agen. Sistem V4 telah dioptimalkan untuk kompatibilitas dengan ekosistem perkakas AI eksternal, termasuk kerangka kerja seperti Claude Code dan OpenClaw, serta lingkungan pengembangan berbasis agen lainnya. Model ini juga digambarkan sedang aktif digunakan dalam alur kerja pengkodean agentic internal.
Baik V4-Pro maupun V4-Flash tersedia melalui akses API, mendukung berbagai standar integrasi dan mode operasional ganda. Perusahaan telah mengindikasikan bahwa model-model lama akan dihapus secara bertahap demi arsitektur baru dalam siklus mendatang, dengan migrasi penuh yang diharapkan pada pertengahan 2026.
The post DeepSeek Meluncurkan Seri Model V4: Dorongan AI Berparameter Tinggi Menargetkan Efisiensi dan Performa Mutakhir appeared first on Metaverse Post.

