Pada SK AI Summit 2025 yang diadakan di Seoul, SK Group menegaskan kembali komitmennya untuk meningkatkan kemampuan chip memori bandwidth tinggi (HBM).
SK hynix, anak perusahaan semikonduktor unggulan konglomerat tersebut, mengumumkan rencana untuk memulai operasi di fasilitas HBM baru di Cheongju, Korea Selatan, tahun depan. Inisiatif ini merupakan respons langsung terhadap lonjakan permintaan daya komputasi AI, yang jauh melampaui pasokan yang tersedia.
Ketua Chey Tae-won menekankan selama pertemuan puncak bahwa strategi perusahaan bergeser dari skala murni ke efisiensi operasional dan produksi cerdas, bertujuan untuk mengelola tantangan teknis dan ekonomi yang menyertai ekspansi infrastruktur AI yang cepat.
Chey menyoroti bahwa perlombaan untuk menghadirkan chip AI yang lebih kuat semakin dibatasi oleh kemacetan manufaktur dan kekurangan material, terutama di segmen HBM. Sementara permintaan untuk memori dengan bandwidth ultra-tinggi terus melonjak, produksi tetap terhambat oleh waktu tunggu yang panjang dan pesanan klien yang tidak terduga.
Untuk mengatasi masalah ini, SK hynix mengejar model "efisiensi cerdas", peningkatan sistem menyeluruh untuk mengoptimalkan desain, produksi, dan logistik melalui otomatisasi berbasis AI. Perusahaan ini juga berkolaborasi dengan Nvidia untuk mengintegrasikan platform manufaktur digital canggih yang merampingkan alur kerja, mengurangi tingkat kesalahan, dan meningkatkan hasil.
Pabrik HBM Cheongju yang akan datang akan dilengkapi dengan klaster produksi memori skala besar yang diharapkan selesai pada tahun 2027. Jaringan ini akan beroperasi secara paralel dengan fasilitas baru di Yongin, Korea Selatan, dan Indiana, Amerika Serikat, menandai rencana ekspansi SK hynix yang paling ambisius hingga saat ini.
Klaster ini akan mendukung produksi massal HBM4, generasi keempat memori bandwidth tinggi, yang pengembangannya telah diselesaikan SK hynix pada September 2025. Produksi massal dijadwalkan untuk Q4 2025, memanfaatkan teknologi pengemasan MR-MUF mutakhir, proses yang menumpuk die memori dengan keandalan yang ditingkatkan sambil mengurangi cacat.
Dengan SK hynix yang sudah menguasai sekitar 62% pangsa pasar HBM global, fasilitas baru ini diharapkan akan memperkuat kepemimpinannya dalam solusi memori kelas AI sambil mengurangi tekanan pasokan untuk klien seperti Nvidia, AMD, dan hyperscaler besar lainnya.
Di luar chip, ambisi AI SK Group meluas ke pusat data dan efisiensi energi. SK Telecom, afiliasi grup lainnya, mengungkapkan rencana baru untuk memperluas operasi pusat data AI sambil bermitra dengan perusahaan SK lainnya untuk merancang fasilitas yang dioptimalkan energi.
Lanskap infrastruktur data Korea yang sedang berkembang mencakup proyek pusat data AI 3-gigawatt yang akan dimulai pembangunannya pada tahun 2025, bersama dengan hub hyperscale yang didukung BlackRock dan potensi kemitraan OpenAI dalam pengembangan infrastruktur. Proyek-proyek ini menekankan teknik pendinginan canggih, seperti pendinginan cair dan imersi, dan sistem distribusi daya yang lebih cerdas untuk menangani beban kerja AI yang berfluktuasi.
Penyelarasan produksi chip SK hynix dengan strategi infrastruktur AI SK Telecom menggarisbawahi pendekatan terintegrasi grup terhadap ekonomi AI, menggabungkan perangkat keras, data, dan keberlanjutan di bawah satu panji inovasi.
Postingan SK hynix to Launch New HBM Chip Facility Amid Soaring AI Demand pertama kali muncul di CoinCentral.


