Het bericht NVIDIA NVLink en Fusion Drive AI Inferentieprestaties verscheen op BitcoinEthereumNews.com. Rongchai Wang 22 aug 2025 05:13 NVIDIA's NVLink en NVLink Fusion-technologieën herdefiniëren AI-inferentieprestaties met verbeterde schaalbaarheid en flexibiliteit om te voldoen aan de exponentiële groei in AI-modelcomplexiteit. De snelle vooruitgang in kunstmatige intelligentie (AI) modelcomplexiteit heeft het aantal parameters aanzienlijk verhoogd van miljoenen naar biljoenen, wat ongekende computationele bronnen vereist. Deze evolutie vraagt om clusters van GPU's om de belasting te beheren, zoals benadrukt door Joe DeLaere in een recent NVIDIA blogbericht. NVLink's Evolutie en Impact NVIDIA introduceerde NVLink in 2016 om de beperkingen van PCIe in high-performance computing en AI-workloads te overtreffen, waardoor snellere GPU-naar-GPU-communicatie en een uniforme geheugenruimte mogelijk werden. De NVLink-technologie heeft zich aanzienlijk ontwikkeld, met de introductie van NVLink Switch in 2018 die 300 GB/s all-to-all bandbreedte bereikte in een 8-GPU-topologie, wat de weg vrijmaakte voor schaalbare computerfabrics. De vijfde generatie NVLink, uitgebracht in 2024, ondersteunt 72 GPU's met all-to-all communicatie op 1.800 GB/s, met een totale bandbreedte van 130 TB/s—800 keer meer dan de eerste generatie. Deze continue vooruitgang sluit aan bij de groeiende complexiteit van AI-modellen en hun computationele eisen. NVLink Fusion: Aanpassing en Flexibiliteit NVLink Fusion is ontworpen om hyperscalers toegang te geven tot NVLink's schaalbare technologieën, waardoor aangepaste siliciumintegratie met NVIDIA's architectuur mogelijk is voor semi-aangepaste AI-infrastructuurimplementatie. De technologie omvat NVLink SERDES, chiplets, switches en rack-scale architectuur, en biedt een modulaire Open Compute Project (OCP) MGX rack-oplossing voor integratie-flexibiliteit. NVLink Fusion ondersteunt aangepaste CPU- en XPU-configuraties met behulp van Universal Chiplet Interconnect Express (UCIe) IP en interface, wat klanten flexibiliteit biedt voor hun XPU-integratiebehoeften op verschillende platforms. Voor aangepaste CPU-opstellingen wordt de integratie van NVIDIA NVLink-C2C IP aanbevolen voor optimale GPU-connectiviteit en prestaties. AI-fabrieksinkomsten maximaliseren De NVLink schaalbare fabric verbetert de productiviteit van AI-fabrieken aanzienlijk door de balans tussen doorvoer...Het bericht NVIDIA NVLink en Fusion Drive AI Inferentieprestaties verscheen op BitcoinEthereumNews.com. Rongchai Wang 22 aug 2025 05:13 NVIDIA's NVLink en NVLink Fusion-technologieën herdefiniëren AI-inferentieprestaties met verbeterde schaalbaarheid en flexibiliteit om te voldoen aan de exponentiële groei in AI-modelcomplexiteit. De snelle vooruitgang in kunstmatige intelligentie (AI) modelcomplexiteit heeft het aantal parameters aanzienlijk verhoogd van miljoenen naar biljoenen, wat ongekende computationele bronnen vereist. Deze evolutie vraagt om clusters van GPU's om de belasting te beheren, zoals benadrukt door Joe DeLaere in een recent NVIDIA blogbericht. NVLink's Evolutie en Impact NVIDIA introduceerde NVLink in 2016 om de beperkingen van PCIe in high-performance computing en AI-workloads te overtreffen, waardoor snellere GPU-naar-GPU-communicatie en een uniforme geheugenruimte mogelijk werden. De NVLink-technologie heeft zich aanzienlijk ontwikkeld, met de introductie van NVLink Switch in 2018 die 300 GB/s all-to-all bandbreedte bereikte in een 8-GPU-topologie, wat de weg vrijmaakte voor schaalbare computerfabrics. De vijfde generatie NVLink, uitgebracht in 2024, ondersteunt 72 GPU's met all-to-all communicatie op 1.800 GB/s, met een totale bandbreedte van 130 TB/s—800 keer meer dan de eerste generatie. Deze continue vooruitgang sluit aan bij de groeiende complexiteit van AI-modellen en hun computationele eisen. NVLink Fusion: Aanpassing en Flexibiliteit NVLink Fusion is ontworpen om hyperscalers toegang te geven tot NVLink's schaalbare technologieën, waardoor aangepaste siliciumintegratie met NVIDIA's architectuur mogelijk is voor semi-aangepaste AI-infrastructuurimplementatie. De technologie omvat NVLink SERDES, chiplets, switches en rack-scale architectuur, en biedt een modulaire Open Compute Project (OCP) MGX rack-oplossing voor integratie-flexibiliteit. NVLink Fusion ondersteunt aangepaste CPU- en XPU-configuraties met behulp van Universal Chiplet Interconnect Express (UCIe) IP en interface, wat klanten flexibiliteit biedt voor hun XPU-integratiebehoeften op verschillende platforms. Voor aangepaste CPU-opstellingen wordt de integratie van NVIDIA NVLink-C2C IP aanbevolen voor optimale GPU-connectiviteit en prestaties. AI-fabrieksinkomsten maximaliseren De NVLink schaalbare fabric verbetert de productiviteit van AI-fabrieken aanzienlijk door de balans tussen doorvoer...

NVIDIA NVLink en Fusion Drive AI-inferentieprestaties

2025/08/22 17:30


Rongchai Wang
22 aug 2025 05:13

NVIDIA's NVLink en NVLink Fusion-technologieën herdefiniëren AI-inferentieprestaties met verbeterde schaalbaarheid en flexibiliteit om te voldoen aan de exponentiële groei in AI-modelcomplexiteit.





De snelle vooruitgang in de complexiteit van kunstmatige intelligentie (AI)-modellen heeft het aantal parameters aanzienlijk verhoogd van miljoenen naar biljoenen, wat ongekende computationele middelen vereist. Deze evolutie vraagt om clusters van GPU's om de belasting te beheren, zoals benadrukt door Joe DeLaere in een recent NVIDIA-blogbericht.

NVLink's Evolutie en Impact

NVIDIA introduceerde NVLink in 2016 om de beperkingen van PCIe in high-performance computing en AI-workloads te overtreffen, waardoor snellere GPU-naar-GPU-communicatie en een uniforme geheugenruimte mogelijk werden. De NVLink-technologie heeft zich aanzienlijk ontwikkeld, met de introductie van NVLink Switch in 2018 die 300 GB/s all-to-all bandbreedte bereikte in een 8-GPU-topologie, wat de weg vrijmaakte voor opschaalbare computefabrics.

De vijfde generatie NVLink, uitgebracht in 2024, ondersteunt 72 GPU's met all-to-all communicatie op 1.800 GB/s, met een totale bandbreedte van 130 TB/s—800 keer meer dan de eerste generatie. Deze continue vooruitgang sluit aan bij de groeiende complexiteit van AI-modellen en hun computationele eisen.

NVLink Fusion: Aanpassing en Flexibiliteit

NVLink Fusion is ontworpen om hyperscalers toegang te geven tot NVLink's opschalingstechnologieën, waardoor aangepaste siliciumintegratie met NVIDIA's architectuur mogelijk is voor semi-aangepaste AI-infrastructuurimplementatie. De technologie omvat NVLink SERDES, chiplets, switches en rack-scale architectuur, en biedt een modulaire Open Compute Project (OCP) MGX rack-oplossing voor integratieflexibiliteit.

NVLink Fusion ondersteunt aangepaste CPU- en XPU-configuraties met behulp van Universal Chiplet Interconnect Express (UCIe) IP en interface, wat klanten flexibiliteit biedt voor hun XPU-integratiebehoeften op verschillende platforms. Voor aangepaste CPU-opstellingen wordt het integreren van NVIDIA NVLink-C2C IP aanbevolen voor optimale GPU-connectiviteit en prestaties.

AI-fabrieksinkomsten Maximaliseren

De NVLink scale-up fabric verbetert de productiviteit van AI-fabrieken aanzienlijk door de balans tussen doorvoer per watt en latentie te optimaliseren. NVIDIA's 72-GPU rack-architectuur speelt een cruciale rol bij het voldoen aan AI-computerbehoeften, waardoor optimale inferentieprestaties mogelijk zijn voor verschillende gebruikssituaties. Het vermogen van de technologie om configuraties op te schalen maximaliseert inkomsten en prestaties, zelfs wanneer de NVLink-snelheid constant blijft.

Een Robuust Partnerecosysteem

NVLink Fusion profiteert van een uitgebreid siliciumecosysteem, inclusief partners voor aangepast silicium, CPU's en IP-technologie, wat brede ondersteuning en snelle design-in mogelijkheden garandeert. Het netwerk van systeempartners en leveranciers van datacenterinfrastructuurcomponenten bouwen al aan NVIDIA GB200 NVL72- en GB300 NVL72-systemen, waardoor de time-to-market voor gebruikers wordt versneld.

Vooruitgang in AI-redenering

NVLink vertegenwoordigt een belangrijke sprong voorwaarts in het aanpakken van de rekenvraag in het tijdperk van AI-redenering. Door gebruik te maken van een decennium aan expertise in NVLink-technologieën en de open standaarden van de OCP MGX rack-architectuur, stelt NVLink Fusion hyperscalers in staat tot uitzonderlijke prestaties en aanpassingsmogelijkheden.

Afbeeldingsbron: Shutterstock


Bron: https://blockchain.news/news/nvidia-nvlink-fusion-ai-inference-performance

Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met [email protected] om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.