文章《NVIDIA NVLink和Fusion驱动AI推理性能》发表于BitcoinEthereumNews.com。 王荣柴 2025年8月22日 05:13 NVIDIA的NVLink和NVLink Fusion技术正在通过增强的可扩展性和灵活性重新定义AI推理性能,以满足AI模型复杂性的指数级增长。 人工智能(AI)模型复杂性的快速发展已显著增加了参数计数,从数百万增至数万亿,需要前所未有的计算资源。正如Joe DeLaere在最近的NVIDIA博客文章中强调的那样,这种演变需要GPU集群来管理负载。NVLink的演变和影响 NVIDIA在2016年推出了NVLink,以超越PCIe在高性能计算和AI工作负载中的限制,促进更快的GPU到GPU通信和统一内存空间。NVLink技术已显著发展,2018年引入的NVLink Switch在8-GPU拓扑中实现了300 GB/s的全对全带宽,为规模扩展计算架构铺平了道路。2024年发布的第五代NVLink支持72个GPU,全对全通信速率为1,800 GB/s,提供130 TB/s的总带宽——比第一代高800倍。这种持续进步与AI模型的日益复杂性及其计算需求相符。NVLink Fusion:定制化和灵活性 NVLink Fusion旨在为超大规模服务提供商提供NVLink的规模扩展技术,允许定制硅与NVIDIA架构集成,用于半定制AI基础设施部署。该技术包括NVLink SERDES、芯片组、交换机和机架规模架构,提供模块化开放计算项目(OCP) MGX机架解决方案,实现集成灵活性。NVLink Fusion支持使用通用芯片互连快速(UCIe) IP和接口的定制CPU和XPU配置,为客户提供跨平台XPU集成需求的灵活性。对于定制CPU设置,建议集成NVIDIA NVLink-C2C IP以获得最佳GPU连接和性能。最大化AI工厂收入 NVLink规模扩展架构通过优化吞吐量之间的平衡显著提高了AI工厂生产力...文章《NVIDIA NVLink和Fusion驱动AI推理性能》发表于BitcoinEthereumNews.com。 王荣柴 2025年8月22日 05:13 NVIDIA的NVLink和NVLink Fusion技术正在通过增强的可扩展性和灵活性重新定义AI推理性能,以满足AI模型复杂性的指数级增长。 人工智能(AI)模型复杂性的快速发展已显著增加了参数计数,从数百万增至数万亿,需要前所未有的计算资源。正如Joe DeLaere在最近的NVIDIA博客文章中强调的那样,这种演变需要GPU集群来管理负载。NVLink的演变和影响 NVIDIA在2016年推出了NVLink,以超越PCIe在高性能计算和AI工作负载中的限制,促进更快的GPU到GPU通信和统一内存空间。NVLink技术已显著发展,2018年引入的NVLink Switch在8-GPU拓扑中实现了300 GB/s的全对全带宽,为规模扩展计算架构铺平了道路。2024年发布的第五代NVLink支持72个GPU,全对全通信速率为1,800 GB/s,提供130 TB/s的总带宽——比第一代高800倍。这种持续进步与AI模型的日益复杂性及其计算需求相符。NVLink Fusion:定制化和灵活性 NVLink Fusion旨在为超大规模服务提供商提供NVLink的规模扩展技术,允许定制硅与NVIDIA架构集成,用于半定制AI基础设施部署。该技术包括NVLink SERDES、芯片组、交换机和机架规模架构,提供模块化开放计算项目(OCP) MGX机架解决方案,实现集成灵活性。NVLink Fusion支持使用通用芯片互连快速(UCIe) IP和接口的定制CPU和XPU配置,为客户提供跨平台XPU集成需求的灵活性。对于定制CPU设置,建议集成NVIDIA NVLink-C2C IP以获得最佳GPU连接和性能。最大化AI工厂收入 NVLink规模扩展架构通过优化吞吐量之间的平衡显著提高了AI工厂生产力...

NVIDIA NVLink 和 Fusion Drive AI 推理性能

2025/08/22 17:30


Rongchai Wang
2025年8月22日 05:13

英伟达的NVLink和NVLink Fusion技术通过增强可扩展性和灵活性重新定义了AI推理性能,以满足AI模型复杂性的指数级增长需求。





人工智能(AI)模型复杂性的快速发展已显著增加了参数数量,从数百万增至数万亿,需要前所未有的计算资源。正如Joe DeLaere在最近的英伟达博客文章中所强调的,这一演变需要GPU集群来管理负载。

NVLink的演变与影响

英伟达于2016年推出NVLink,旨在超越PCIe在高性能计算和AI工作负载方面的限制,促进更快的GPU到GPU通信和统一内存空间。NVLink技术已显著发展,2018年引入的NVLink Switch在8-GPU拓扑中实现了300 GB/s的全对全带宽,为扩展计算架构铺平了道路。

2024年发布的第五代NVLink支持72个GPU,全对全通信速度达1,800 GB/s,提供130 TB/s的总带宽——比第一代高800倍。这种持续进步与AI模型日益增长的复杂性及其计算需求相符。

NVLink Fusion:定制化与灵活性

NVLink Fusion旨在为超大规模服务提供商提供NVLink扩展技术的访问权限,允许自定义硅芯片与英伟达架构集成,用于半定制AI基础设施部署。该技术包括NVLink SERDES、芯片组、交换机和机架规模架构,提供模块化开放计算项目(OCP) MGX机架解决方案,实现集成灵活性。

NVLink Fusion支持使用通用芯片互连快车(UCIe) IP和接口的自定义CPU和XPU配置,为客户提供跨平台XPU集成需求的灵活性。对于自定义CPU设置,建议集成英伟达NVLink-C2C IP以获得最佳GPU连接和性能。

最大化AI工厂收益

NVLink扩展架构通过优化每瓦吞吐量和延迟之间的平衡,显著提高了AI工厂生产力。英伟达的72-GPU机架架构在满足AI计算需求方面发挥着关键作用,实现各种用例的最佳推理性能。即使在NVLink速度恒定的情况下,该技术扩展配置的能力也能最大化收益和性能。

强大的合作伙伴生态系统

NVLink Fusion受益于广泛的硅生态系统,包括自定义硅芯片、CPU和IP技术的合作伙伴,确保广泛支持和快速设计能力。系统合作伙伴网络和数据中心基础设施组件提供商已经在构建英伟达GB200 NVL72和GB300 NVL72系统,加速采用者的市场投放时间。

AI推理的进步

NVLink代表了解决AI推理时代计算需求的重大飞跃。通过利用NVLink技术十年的专业知识和OCP MGX机架架构的开放标准,NVLink Fusion为超大规模服务提供商提供了卓越的性能和定制选项。

图片来源:Shutterstock


来源:https://blockchain.news/news/nvidia-nvlink-fusion-ai-inference-performance

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。