चिप दिग्गज NVIDIA एक शक्तिशाली नया आर्टिफिशियल इंटेलिजेंस प्रोसेसर लॉन्च करने की तैयारी कर रही है, जिसे चैटबॉट्स और अन्य AI टूल्स द्वारा प्रतिक्रियाएं उत्पन्न करने की गति बढ़ाने के लिए डिज़ाइन किया गया है, जो संभावित रूप से आज की ChatGPT जैसी प्रणालियों को तुलनात्मक रूप से धीमा दिखा सकता है।
नया प्लेटफ़ॉर्म, जिसके NVIDIA के वार्षिक GTC डेवलपर सम्मेलन में शुरू होने की उम्मीद है, AI इन्फरेंस के लिए अनुकूलित है, वह चरण जब प्रशिक्षित मॉडल उपयोगकर्ता प्रॉम्प्ट्स के उत्तर देते हैं। पारंपरिक GPUs के विपरीत जो प्रशिक्षण और इन्फरेंस दोनों को संभालने के लिए बनाए गए हैं, आगामी प्रोसेसर विशेष रूप से तेज़ और अधिक कुशलता से प्रतिक्रियाएं देने पर केंद्रित है।
यदि लॉन्च किया जाता है, तो यह उत्पाद दिसंबर की उस डील का पहला ठोस परिणाम होगा जो Groq के संस्थापकों को शामिल करता है, जिनकी कंपनी हाई-स्पीड AI प्रोसेसिंग हार्डवेयर में विशेषज्ञता रखती है।
पिछले साल के अंत में, NVIDIA ने कथित तौर पर चिप स्टार्टअप Groq से तकनीक लाइसेंस करने और CEO सहित प्रमुख कर्मियों की भर्ती के लिए लगभग $20 बिलियन खर्च किए। लगभग उसी समय, NVIDIA के CEO Jensen Huang ने कर्मचारियों से कहा, "हम Groq के लो-लेटेंसी प्रोसेसर को NVIDIA AI फैक्ट्री आर्किटेक्चर में एकीकृत करने की योजना बना रहे हैं, जो प्लेटफ़ॉर्म को AI इन्फरेंस और रीयल-टाइम वर्कलोड्स की व्यापक श्रृंखला की सेवा के लिए विस्तारित करेगा।"
अब, द वॉल स्ट्रीट जर्नल के अनुसार, नई इन्फरेंस चिप से उच्च गति पर जटिल AI प्रश्नों को संभालने की उम्मीद है, जिसे OpenAI और अन्य प्रमुख क्लाइंट्स द्वारा अपनाए जाने की संभावना है। इसकी रिपोर्ट ने यह भी दिखाया कि नई चिप OpenAI के इन्फरेंस वर्कलोड का लगभग 10% संभाल सकती है।
Groq-शैली की चिप SRAM का उपयोग करेगी, सूत्रों का कहना है
हाल ही की एक अर्निंग्स कॉल के दौरान, NVIDIA के CEO ने संकेत दिया कि आगामी GTC इवेंट में कई नए उत्पादों का अनावरण किया जाएगा, जिसे अक्सर "AI का सुपर बाउल" कहा जाता है। उन्होंने टिप्पणी की, "मेरे पास कुछ बेहतरीन विचार हैं जो मैं GTC में आपके साथ साझा करना चाहूंगा।"
अधिकांश विश्लेषक सहमत हैं कि Groq-शैली की चिप लाइनअप का हिस्सा हो सकती है। उन्होंने यह भी कहा कि इसका डिज़ाइन यह स्पष्ट कर सकता है कि NVIDIA इन्फरेंस कंप्यूटिंग में मेमोरी बाधाओं को कैसे संबोधित करना चाहती है। ऐसे प्लेटफ़ॉर्म आमतौर पर हाई-बैंडविड्थ मेमोरी (HBM) पर चलते हैं। हालांकि, हाल ही में HBM प्राप्त करना मुश्किल रहा है।
अंदरूनी सूत्रों ने दावा किया है कि फर्म HBM से जुड़े डायनामिक RAM के बजाय चिप में SRAM का उपयोग करने की योजना बना रही है। आदर्श रूप से, SRAM अधिक सुलभ है और AI रीज़निंग वर्कलोड्स के प्रदर्शन में सुधार कर सकता है।
यदि चिप का अनावरण किया जाता है, तो यह चिप कंपनी और AI-प्रशिक्षित मॉडलों के लिए एक बड़ा कदम हो सकता है। हालांकि, इसके संभावित लॉन्च पर बोलते हुए, d-Matrix के संस्थापक और CEO Sid Sheth ने इसके विकास पर संदेह व्यक्त किया। उन्होंने नोट किया कि जबकि NVIDIA AI प्रशिक्षण में स्पष्ट लीडर बना हुआ है, इन्फरेंस एक बहुत अलग परिदृश्य का प्रतिनिधित्व करता है। उन्होंने साझा किया: "डेवलपर्स NVIDIA के अलावा प्रतिस्पर्धियों की ओर रुख कर सकते हैं क्योंकि तैयार AI मॉडलों को चलाने के लिए उन्हें प्रशिक्षित करने जैसी प्रोग्रामिंग की आवश्यकता नहीं होती है।"
फिर भी, अन्य टेक दिग्गज भी इन्फरेंस कंप्यूटिंग को आगे बढ़ा रहे हैं। Meta ने इस सप्ताह इन्फरेंस के लिए तैयार किए गए चार प्रोसेसर का अनावरण किया, जिससे सिलिकॉन वैली के एक निवेशक ने कहा कि उद्योग एक गैर-"NVIDIA-प्रभुत्व" चरण में प्रवेश कर सकता है।
हालांकि, हाल ही में, NVIDIA प्रतिद्वंद्वी FuriosaAI के मुख्य कार्यकारी अधिकारी June Paik ने आसानी से तैनात होने वाली इन्फरेंस कंप्यूटिंग के लाभ पर टिप्पणी करते हुए चेतावनी दी कि अधिकांश डेटा सेंटर नवीनतम लिक्विड-कूल्ड GPUs को समायोजित नहीं कर सकते हैं।
फिर भी, उनकी चिंताओं के बावजूद, बैंक ऑफ अमेरिका के विश्लेषकों को उम्मीद है कि 2030 तक इन्फरेंस वर्कलोड्स AI डेटा सेंटर खर्च का 75% प्रतिनिधित्व करेंगे, जब बाजार लगभग $1.2 ट्रिलियन तक पहुंच जाएगा, जो पिछले साल लगभग 50% से अधिक है। क्रिएटिव स्ट्रैटेजीज़ के टेक विश्लेषक Ben Bajarin ने भी जोर देकर कहा कि भविष्य के डेटा सेंटर एक-आकार-सभी-के-लिए मॉडल के अनुरूप नहीं होंगे, यह अनुमान लगाते हुए कि कंपनियां चिप और सुविधा विकास के लिए अलग-अलग दृष्टिकोण अपनाएंगी।
NVIDIA से 2026 में बाद में Vera Rubin चिप्स जारी करने की उम्मीद है
NVIDIA ने हाल ही में अपनी अगली पीढ़ी की AI चिप्स, Vera Rubin AI चिप्स भी जारी की हैं, यह उम्मीद करते हुए कि DeepSeek जैसे रीज़निंग AI प्लेटफ़ॉर्म के उदय से और भी अधिक कंप्यूटिंग मांग बढ़ेगी। इसने दावा किया कि चिप्स बड़े AI मॉडलों को प्रशिक्षित करने और व्यापक उपयोगकर्ता आधार को अधिक परिष्कृत आउटपुट प्रदान करने में मदद करेंगी।
Huang के अनुसार, Rubin 2026 के उत्तरार्ध में भी बाजार में आएगा, जिसका हाई-एंड "अल्ट्रा" संस्करण 2027 में आएगा।
उन्होंने यह भी बताया कि एक एकल Rubin प्रणाली 576 व्यक्तिगत GPUs को एक चिप में संयोजित करेगी। वर्तमान में, NVIDIA की Blackwell चिप अपने NVL72 सिस्टम में 72 GPUs को क्लस्टर करती है, जिसका अर्थ है कि Rubin में अधिक उन्नत मेमोरी होगी।
स्रोत: https://www.cryptopolitan.com/nvidias-chip-could-make-chatgpt-look-slow/


