Pembaruan NVIDIA CUDA 13.2: Berita CUDA Terbaru Hari Ini (GPU Ampere & Ada)
Iris Coleman 29 Mar 2026 23:00
CUDA 13.2 memperluas pemrograman GPU berbasis tile ke arsitektur lama, menambahkan alat profiling Python, dan memberikan percepatan hingga 5x dengan algoritma Top-K baru.
Berita CUDA Terbaru Hari Ini: NVIDIA Memperluas Ekosistem CUDA
Berita CUDA Hari Ini: Sorotan Utama
NVIDIA memperluas akses CUDA ke platform pihak ketiga, menandai langkah besar dalam membuat ekosistem komputasi GPU-nya lebih mudah diakses oleh pengembang di seluruh dunia.
- CUDA kini tersedia di lebih banyak platform pihak ketiga
- Perluasan ekosistem CUDA di luar lingkungan tradisional
- Peningkatan aksesibilitas untuk pengembang dan perusahaan
- Dukungan yang lebih kuat untuk komputasi berbasis cloud dan terdistribusi
Apa Artinya Ini untuk Pengembang dan Perusahaan AI
Perluasan CUDA ke platform pihak ketiga menurunkan hambatan masuk bagi pengembang dan bisnis. Ini memungkinkan opsi deployment yang lebih fleksibel dan mengurangi ketergantungan pada lingkungan perangkat keras tertentu.
Manfaat utama meliputi:
- Deployment aplikasi AI yang lebih mudah di berbagai platform
- Pengurangan keterbatasan infrastruktur untuk startup dan perusahaan
- Fleksibilitas yang lebih besar di lingkungan cloud dan hybrid
- Inovasi yang lebih cepat dalam aplikasi AI dan berbasis GPU
Langkah ini diharapkan dapat mempercepat adopsi CUDA di berbagai industri.
Rilis CUDA 13.2 NVIDIA memperluas model pemrograman berbasis tile-nya ke arsitektur Ampere dan Ada, membawa apa yang disebut perusahaan sebagai pembaruan platform terbesar dalam dua dekade ke basis perangkat keras yang jauh lebih luas. Pembaruan ini juga memperkenalkan kemampuan profiling Python native dan algoritma baru yang memberikan peningkatan performa hingga 5x untuk beban kerja tertentu.
Sebelumnya terbatas pada GPU kelas Blackwell, CUDA Tile kini mendukung arsitektur compute capability 8.X (Ampere dan Ada), bersama dengan dukungan 10.X dan 12.X yang ada. NVIDIA mengindikasikan bahwa rilis toolkit mendatang akan memperluas dukungan penuh ke semua arsitektur GPU mulai dari Ampere, yang berpotensi mencakup jutaan GPU profesional dan konsumen yang telah diterapkan.
Python Mendapat Perlakuan Kelas Satu
Rilis ini secara signifikan memperluas perkakas Python. cuTile Python, implementasi DSL dari model pemrograman tile NVIDIA, kini mendukung fungsi rekursif, closure dengan capture, fungsi lambda, dan operasi reduksi khusus. Instalasi telah disederhanakan menjadi satu perintah pip yang menarik semua dependensi tanpa memerlukan instalasi CUDA Toolkit di seluruh sistem.
Antarmuka profiling baru bernama Nsight Python membawa profiling kernel langsung ke pengembang Python. Menggunakan decorator, pengembang dapat secara otomatis mengonfigurasi, membuat profil, dan memplot perbandingan performa kernel di berbagai konfigurasi. Alat ini mengekspos data performa melalui struktur data Python standar untuk analisis khusus.
Mungkin lebih signifikan untuk alur kerja debugging: kernel Numba-CUDA kini dapat di-debug pada perangkat keras GPU aktual untuk pertama kalinya. Pengembang dapat menetapkan breakpoint, melangkah melalui pernyataan, dan memeriksa status program menggunakan CUDA-GDB atau Nsight Visual Studio Code Edition.
Peningkatan Performa Algoritma
Rilis CUDA Core Compute Libraries (CCCL) 3.2 memperkenalkan beberapa algoritma yang dioptimalkan. cub::DeviceTopK yang baru memberikan percepatan hingga 5x dibandingkan radix sort penuh saat memilih elemen K terbesar atau terkecil dari dataset—operasi umum dalam sistem rekomendasi dan aplikasi pencarian.
Reduksi tersegmentasi berukuran tetap menunjukkan peningkatan yang lebih dramatis: hingga 66x lebih cepat untuk ukuran segmen kecil dan 14x untuk segmen besar dibandingkan implementasi berbasis offset yang ada. Library cuSOLVER menambahkan kalkulasi FP64-emulated yang memanfaatkan throughput INT8, mencapai peningkatan performa hingga 2x untuk faktorisasi QR pada sistem B200 ketika ukuran matriks mendekati 80K.
Pembaruan Enterprise dan Embedded
Driver komputasi Windows kini default ke mode MCDM alih-alih mode TCC mulai dari versi driver R595. Perubahan ini mengatasi masalah kompatibilitas di mana beberapa sistem menampilkan kesalahan saat startup. MCDM memungkinkan dukungan WSL2, kompatibilitas container native, dan API manajemen memori lanjutan yang sebelumnya dicadangkan untuk mode WDDM. NVIDIA mengakui bahwa MCDM saat ini memiliki latensi pengiriman yang sedikit lebih tinggi daripada TCC dan sedang bekerja untuk menutup kesenjangan tersebut.
Untuk sistem embedded, CUDA Toolkit Arm SBSA yang sama kini bekerja di semua target Arm, termasuk perangkat Jetson Orin. Jetson Thor mendapatkan dukungan Multi-Instance GPU, memungkinkan GPU terintegrasi dipartisi menjadi dua instance terisolasi—berguna untuk aplikasi robotika yang perlu memisahkan kontrol motor yang kritis keselamatan dari beban kerja persepsi yang lebih berat.
Toolkit tersedia sekarang melalui portal pengembang NVIDIA. Pengembang yang menggunakan GPU Ampere, Ada, atau Blackwell dapat mengakses panduan cuTile Python Quickstart untuk mulai bereksperimen dengan pemrograman berbasis tile.
Penjelasan Perluasan Ekosistem CUDA
CUDA telah lama menjadi landasan strategi komputasi GPU NVIDIA. Dengan memperluas ketersediaannya ke platform pihak ketiga, NVIDIA memperkuat ekosistemnya dan memperkuat posisinya di pasar AI dan komputasi berkinerja tinggi.
Perluasan ini memungkinkan pengembang untuk memanfaatkan CUDA di lebih banyak lingkungan, menjadikannya platform yang lebih serbaguna dan diadopsi secara luas.
Ini juga mencerminkan tren industri yang lebih luas menuju ekosistem komputasi yang terbuka dan fleksibel.
Berita dan Pembaruan CUDA Terkait
Untuk pembaruan lebih lanjut tentang pengembangan CUDA, lihat berita terbaru:
- NVIDIA CUDA 13.2 memperluas pemrograman tile untuk GPU Ampere dan Ada
Tetap ikuti berita CUDA hari ini saat NVIDIA terus memperluas kemampuan komputasi GPU-nya.
FAQ: Berita CUDA Hari Ini
Apa versi CUDA terbaru hari ini?
Versi CUDA terbaru adalah CUDA 13.2, yang memperkenalkan peningkatan dalam pemrograman tile dan efisiensi GPU untuk arsitektur Ampere dan Ada.
Apa yang berubah di CUDA 13.2?
CUDA 13.2 menambahkan pemrograman berbasis tile yang ditingkatkan, optimasi memori yang lebih baik, dan dukungan yang lebih baik untuk beban kerja AI dan komputasi berkinerja tinggi.
GPU mana yang mendukung CUDA 13.2?
CUDA 13.2 dioptimalkan untuk GPU NVIDIA Ampere dan Ada, memastikan performa yang lebih baik dan kompatibilitas dengan perangkat keras modern.
Apakah CUDA 13.2 bagus untuk beban kerja AI?
Ya, CUDA 13.2 secara signifikan meningkatkan performa AI dan machine learning dengan mengoptimalkan pemanfaatan GPU dan mengurangi waktu pelatihan.
Seberapa sering NVIDIA memperbarui CUDA?
NVIDIA secara teratur memperbarui CUDA dengan fitur baru, peningkatan performa, dan dukungan perangkat keras yang diperluas beberapa kali setahun.
Di mana saya dapat mengunduh pembaruan CUDA?
Anda dapat mengunduh pembaruan CUDA terbaru dari situs web resmi NVIDIA atau melalui platform pengembang yang mendukung CUDA.
Sumber gambar: Shutterstock- nvidia
- cuda
- komputasi gpu
- pengembangan ai
- python




