简要概述:美光推出256GB SOCAMM2内存,高效针对AI工作负载,而股价保持近乎持平。英伟达赞扬该模块为下一代的提升简要概述:美光推出256GB SOCAMM2内存,高效针对AI工作负载,而股价保持近乎持平。英伟达赞扬该模块为下一代的提升

Micron (MU) 股价;尽管推出2TB CPU附加内存创新,仍小幅下跌

2026/03/06 16:59
阅读时长 5 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 [email protected] 联系我们。

TLDRs;

  • Micron 推出的新款 256GB SOCAMM2 记忆体高效针对 AI 工作负载,而股价几乎持平。
  • Nvidia 称赞该模组为高效能数据中心中次世代 AI CPU 的助力。
  • 与传统 DDR5 伺服器模组相比,SOCAMM2 降低了功耗和实体占用空间。
  • 行业采用将取决于客户测试、系统升级以及 JEDEC 标准化进度。

Micron Technology(纳斯达克代码:MU)已开始分发其 256GB SOCAMM2 低功耗伺服器记忆体模组的客户样品,旨在满足 AI 数据中心日益增长的能源和效能需求。这款最新模组是 Micron 先前 192GB SOCAMM2 版本的升级,可支援高达 2TB 的 CPU 附加记忆体,同时功耗约为传统 DDR5 寄存器模组(RDIMMs)的三分之一。

尽管有此创新,Micron 股价在美国早盘交易中基本保持不变,小幅下跌至 400.42 美元,反映出投资者的谨慎态度,因为该记忆体仍处于样品阶段,尚未全面部署。


MU Stock Card
Micron Technology, Inc., MU

Nvidia 认可 Micron 的低功耗设计

Nvidia 数据中心 CPU 产品主管 Ian Finder 将 SOCAMM2 模组描述为"实现次世代 AI CPU",强调其对高效能运算(HPC)和生成式 AI 工作负载的潜在影响。Micron 与 Nvidia 之间的合作凸显了将记忆体技术与现代 CPU 和 GPU 需求相结合的重要性,以支援日益庞大的 AI 模型。

Futurum Research 分析师 Brendan Burke 指出,CPU 附加低功耗 DRAM 正成为推理工作负载的关键记忆体层级,这些工作负载可能会产生突然的需求和功耗高峰。通过将记忆体置于 CPU 附近,SOCAMM2 有助于降低延迟和功耗,同时处理 AI 模型所需的海量数据集。

SOCAMM2 提供效率和空间节省

SOCAMM2 代表小型轮廓压缩附加记忆体模组,利用通常见于智能手机的 LPDDR5X DRAM。这种设计不仅降低了功耗,还减少了伺服器记忆体的实体占用空间,仅占用相当 RDIMMs 三分之一的空间。

Micron 使用 Llama 3 70B 大型语言模型进行的内部测试显示,"首个令牌时间"改善超过 2.3 倍,这是 AI 推理效能的关键指标。

256GB 模组的单片式 32 gigabit LPDDR5X 布局允许每个八通道伺服器 CPU 支援高达 2TB 的低功耗记忆体。这种扩展相比先前的 192GB 版本提供了显著的 33% 容量增加,使其对寻求 AI 数据中心密度和能源效率的营运商具有吸引力。

行业展望和市场影响

虽然 Micron 与 Samsung 和 SK hynix 一起在 SOCAMM2 和高频宽记忆体开发方面处于领先地位,但广泛采用将取决于客户认证、系统改造以及 JEDEC 标准化进度等因素。分析师警告称,供应限制可能持续到 2027 年,可能会限制对 Micron 营收的立即影响。

该公司预计于 3 月 18 日公布的第二财季收益,将为投资者提供新数据中心产品定价趋势和出货量的信号。与此同时,Micron 继续与 Nvidia 合作并参与标准组织,为 SOCAMM2 未来可能扩展至小众高效能 AI 应用之外做好准备。

目前,Micron 的股价基本保持稳定,反映了次世代记忆体技术的前景与其商业推出的不确定性之间的平衡。

本文 Micron (MU) 股票;尽管推出 2TB CPU 附加记忆体创新但略有下跌 首次发表于 CoinCentral。

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。