Nvidia在全球高端人工智能解决方案竞赛中又迈出了重要一步。该公司表示,其新的Rubin数据中心芯片已几乎准备好在今年稍后推出,客户将很快开始测试它们。
Nvidia表示,所有六款Rubin芯片已从Nvidia的制造合作伙伴处返回。这些芯片已经经过几项关键测试程序,并按计划将供客户使用。该公司指出,这一早期进展很重要,因为人工智能公司和数据中心正在竞相获得更快、更高效的硬件。
Nvidia首席执行官黄仁勋在拉斯维加斯消费电子展(CES)的主题演讲中分享了这一最新消息。CES是全球最大的科技盛会之一,制造商在此展示新产品和理念。"人工智能的竞赛已经开始,"黄仁勋在科技公司快速发展以解锁下一代人工智能的竞赛中表示。
他的评论表明Nvidia非常确信它仍然可以成为世界第一的人工智能加速器制造商。这些加速器是数据中心用于训练和运行人工智能模型的专用芯片,为聊天机器人、图像识别系统和先进机器人等工具提供动力。
Rubin是Nvidia最新的人工智能加速器,继上一代Blackwell之后推出。该公司表示,与Blackwell相比,Rubin在训练人工智能模型方面快3.5倍,在运行人工智能软件方面快5倍。训练人工智能涉及教导模型从大量数据中学习,而运行人工智能意味着利用这些模型实时执行任务。
Rubin新增了一个具有88个核心的中央处理器(CPU)。核心是芯片中执行计算和处理数据的部分。这款新CPU的性能是其所取代芯片的两倍,更适合处理更复杂的人工智能工作负载。在Nvidia春季加州GTC大会上,该公司通常会分享完整的产品详情。
这一次,公布的信息比平常更多。此举被认为是在人工智能采用持续快速增长的情况下,让消费者和开发人员专注于Nvidia硬件的一种手段。黄仁勋本人也多次公开露面,推广人工智能产品、合作伙伴关系和投资。Nvidia并非CES上唯一受关注的厂商。竞争对手芯片制造商Advanced Micro Devices(AMD)的首席执行官苏姿丰也预定了主题演讲,突显了芯片市场竞争的加剧。
一些投资者担心Nvidia面临的竞争正在升温。其他科技公司也在开发自己的人工智能芯片,这使得人们难以判断人工智能支出是否能够保持同步增长。
然而,Nvidia一直保持乐观态度,认为受云计算、企业和新兴领域等行业需求的推动,长期人工智能市场的价值可能达到数万亿美元。
Rubin硬件将用于Nvidia的DGX SuperPod,这是一款专为大规模人工智能工作设计的强大超级计算机。同时,客户将能够将Rubin芯片作为单独组件购买,使他们能够构建更灵活和模块化的系统。
鉴于人工智能系统不断演进,性能的提升尤为关键。现代人工智能越来越依赖于专门模型的网络,这些模型不仅处理大量数据,还能通过多个步骤解决问题。这些任务包括规划、推理和决策。
Nvidia还强调,基于Rubin的系统运营成本将低于Blackwell系统。由于Rubin可以用更少的组件实现相同的结果,数据中心可以节省能源和运营成本。
Microsoft、Google Cloud和Amazon Web Services(AWS)等主要云计算公司预计将在今年下半年首批部署Rubin硬件。这些公司目前占Nvidia驱动的人工智能系统支出的大部分。
通过导师指导和每日观点提升您的策略 - 30天免费访问我们的交易计划


