Micron Technology (NASDAQ:MU) telah mulai mendistribusikan sampel pelanggan dari modul memori server berdaya rendah SOCAMM2 256GB-nya, yang dirancang untuk memenuhi permintaan energi dan kinerja yang terus meningkat dari pusat data AI. Modul terbaru ini merupakan peningkatan dari rilis SOCAMM2 192GB Micron sebelumnya, memungkinkan hingga 2TB memori yang terpasang pada CPU sambil menggunakan sekitar sepertiga daya dari modul terdaftar DDR5 tradisional (RDIMMs).
Meskipun ada inovasi ini, saham Micron tetap sebagian besar tidak berubah dalam perdagangan awal AS, turun sedikit menjadi $400,42, mencerminkan kehati-hatian investor karena memori masih dalam tahap pengambilan sampel dan belum dalam penerapan skala penuh.
Micron Technology, Inc., MU
Ian Finder, kepala produk CPU pusat data Nvidia, menggambarkan modul SOCAMM2 sebagai "memungkinkan generasi berikutnya dari CPU AI," menyoroti dampak potensialnya pada komputasi berkinerja tinggi (HPC) dan beban kerja AI generatif. Kolaborasi antara Micron dan Nvidia menggarisbawahi pentingnya menyelaraskan teknologi memori dengan persyaratan CPU dan GPU modern untuk mendukung model AI yang semakin besar.
Brendan Burke, seorang analis di Futurum Research, mencatat bahwa DRAM berdaya rendah yang terpasang pada CPU muncul sebagai tingkat memori yang krusial untuk beban kerja inferensi, yang dapat menghasilkan lonjakan permintaan dan konsumsi daya secara tiba-tiba. Dengan memposisikan memori dekat dengan CPU, SOCAMM2 membantu mengurangi latensi dan penggunaan daya sambil menangani kumpulan data besar yang diperlukan untuk model AI.
SOCAMM2, yang merupakan singkatan dari small outline compression attached memory module, memanfaatkan LPDDR5X DRAM yang biasanya terlihat di smartphone. Desain ini tidak hanya mengurangi konsumsi daya tetapi juga mengurangi jejak fisik memori server, hanya mengambil sepertiga ruang dari RDIMMs yang sebanding.
Pengujian internal Micron menggunakan model bahasa besar Llama 3 70B menunjukkan peningkatan lebih dari 2,3x dalam "waktu hingga token pertama," metrik kunci untuk kinerja inferensi AI.
Tata letak LPDDR5X 32-gigabit monolitik modul 256GB memungkinkan setiap CPU server delapan saluran untuk mendukung hingga 2TB memori berdaya rendah. Penskalaan ini menawarkan peningkatan kapasitas 33% yang signifikan dibandingkan iterasi 192GB sebelumnya, membuatnya menarik bagi operator yang mencari kepadatan dan efisiensi energi di pusat data AI.
Sementara Micron memimpin bersama Samsung dan SK hynix dalam pengembangan SOCAMM2 dan memori bandwidth tinggi, adopsi luas akan bergantung pada faktor-faktor seperti kualifikasi pelanggan, pembaruan sistem, dan kecepatan standardisasi JEDEC. Analis memperingatkan bahwa kendala pasokan dapat bertahan hingga 2027, berpotensi membatasi dampak volume langsung pada pendapatan Micron.
Pendapatan kuartal kedua fiskal perusahaan, yang diharapkan pada 18 Maret, akan memberikan sinyal kepada investor tentang tren harga dan volume pengiriman untuk produk pusat data baru. Sementara itu, Micron terus berkolaborasi dengan Nvidia dan berpartisipasi dalam kelompok standar, memposisikan SOCAMM2 untuk ekspansi masa depan yang potensial di luar aplikasi AI berkinerja tinggi yang khusus.
Untuk saat ini, saham Micron tetap sebagian besar stabil, mencerminkan keseimbangan antara janji teknologi memori generasi berikutnya dan ketidakpastian seputar peluncuran komersialnya.
Postingan Saham Micron (MU); Penurunan Sedikit Meskipun Ada Inovasi Memori Terpasang CPU 2TB pertama kali muncul di CoinCentral.


