Micron Technology(纳斯达克代码:MU)已开始分发其 256GB SOCAMM2 低功耗伺服器记忆体模组的客户样品,旨在满足 AI 数据中心日益增长的能源和效能需求。这款最新模组是 Micron 先前 192GB SOCAMM2 版本的升级,可支援高达 2TB 的 CPU 附加记忆体,同时功耗约为传统 DDR5 寄存器模组(RDIMMs)的三分之一。
尽管有此创新,Micron 股价在美国早盘交易中基本保持不变,小幅下跌至 400.42 美元,反映出投资者的谨慎态度,因为该记忆体仍处于样品阶段,尚未全面部署。
Micron Technology, Inc., MU
Nvidia 数据中心 CPU 产品主管 Ian Finder 将 SOCAMM2 模组描述为"实现次世代 AI CPU",强调其对高效能运算(HPC)和生成式 AI 工作负载的潜在影响。Micron 与 Nvidia 之间的合作凸显了将记忆体技术与现代 CPU 和 GPU 需求相结合的重要性,以支援日益庞大的 AI 模型。
Futurum Research 分析师 Brendan Burke 指出,CPU 附加低功耗 DRAM 正成为推理工作负载的关键记忆体层级,这些工作负载可能会产生突然的需求和功耗高峰。通过将记忆体置于 CPU 附近,SOCAMM2 有助于降低延迟和功耗,同时处理 AI 模型所需的海量数据集。
SOCAMM2 代表小型轮廓压缩附加记忆体模组,利用通常见于智能手机的 LPDDR5X DRAM。这种设计不仅降低了功耗,还减少了伺服器记忆体的实体占用空间,仅占用相当 RDIMMs 三分之一的空间。
Micron 使用 Llama 3 70B 大型语言模型进行的内部测试显示,"首个令牌时间"改善超过 2.3 倍,这是 AI 推理效能的关键指标。
256GB 模组的单片式 32 gigabit LPDDR5X 布局允许每个八通道伺服器 CPU 支援高达 2TB 的低功耗记忆体。这种扩展相比先前的 192GB 版本提供了显著的 33% 容量增加,使其对寻求 AI 数据中心密度和能源效率的营运商具有吸引力。
虽然 Micron 与 Samsung 和 SK hynix 一起在 SOCAMM2 和高频宽记忆体开发方面处于领先地位,但广泛采用将取决于客户认证、系统改造以及 JEDEC 标准化进度等因素。分析师警告称,供应限制可能持续到 2027 年,可能会限制对 Micron 营收的立即影响。
该公司预计于 3 月 18 日公布的第二财季收益,将为投资者提供新数据中心产品定价趋势和出货量的信号。与此同时,Micron 继续与 Nvidia 合作并参与标准组织,为 SOCAMM2 未来可能扩展至小众高效能 AI 应用之外做好准备。
目前,Micron 的股价基本保持稳定,反映了次世代记忆体技术的前景与其商业推出的不确定性之间的平衡。
本文 Micron (MU) 股票;尽管推出 2TB CPU 附加记忆体创新但略有下跌 首次发表于 CoinCentral。


