Micron Technology (NASDAQ:MU) ने अपने 256GB SOCAMM2 कम-शक्ति सर्वर मेमोरी मॉड्यूल के ग्राहक नमूनों का वितरण शुरू कर दिया है, जो AI डेटा सेंटरों की बढ़ती ऊर्जा और प्रदर्शन मांगों को पूरा करने के लिए डिज़ाइन किया गया है। यह नवीनतम मॉड्यूल Micron के पिछले 192GB SOCAMM2 रिलीज़ से एक कदम आगे है, जो पारंपरिक DDR5 रजिस्टर्ड मॉड्यूल (RDIMMs) की तुलना में लगभग एक-तिहाई बिजली का उपयोग करते हुए 2TB तक CPU-संलग्न मेमोरी को सक्षम बनाता है।
इस नवाचार के बावजूद, Micron के शेयर प्रारंभिक अमेरिकी ट्रेडिंग में काफी हद तक अपरिवर्तित रहे, जो $400.42 तक थोड़ा गिर गए, जो निवेशकों की सावधानी को दर्शाता है क्योंकि मेमोरी अभी भी नमूना चरण में है और पूर्ण पैमाने पर तैनाती में नहीं है।
Micron Technology, Inc., MU
Ian Finder, Nvidia के डेटा सेंटर CPU उत्पाद प्रमुख, ने SOCAMM2 मॉड्यूल को "अगली पीढ़ी के AI CPU को सक्षम बनाने" के रूप में वर्णित किया, जो उच्च-प्रदर्शन कंप्यूटिंग (HPC) और जनरेटिव AI वर्कलोड पर इसके संभावित प्रभाव को उजागर करता है। Micron और Nvidia के बीच सहयोग आधुनिक CPU और GPU आवश्यकताओं के साथ मेमोरी तकनीक को संरेखित करने के महत्व को रेखांकित करता है ताकि बढ़ते बड़े AI मॉडल का समर्थन किया जा सके।
Brendan Burke, Futurum Research के एक विश्लेषक, ने नोट किया कि CPU-संलग्न कम-शक्ति DRAM अनुमान वर्कलोड के लिए एक महत्वपूर्ण मेमोरी टियर के रूप में उभर रहा है, जो मांग और बिजली खपत में अचानक वृद्धि उत्पन्न कर सकता है। CPU के पास मेमोरी को स्थापित करके, SOCAMM2 विलंबता और बिजली के उपयोग को कम करने में मदद करता है जबकि AI मॉडल के लिए आवश्यक विशाल डेटासेट को संभालता है।
SOCAMM2, जो small outline compression attached memory module के लिए है, स्मार्टफोन में आमतौर पर देखे जाने वाले LPDDR5X DRAM का लाभ उठाता है। यह डिज़ाइन न केवल बिजली की खपत को कम करता है बल्कि सर्वर मेमोरी के भौतिक स्थान को भी कम करता है, तुलनीय RDIMMs की तुलना में केवल एक-तिहाई स्थान लेता है।
Llama 3 70B बड़े भाषा मॉडल का उपयोग करते हुए आंतरिक Micron परीक्षणों ने "time to first token" में 2.3x से अधिक सुधार का प्रदर्शन किया, जो AI अनुमान प्रदर्शन के लिए एक प्रमुख मीट्रिक है।
256GB मॉड्यूल का मोनोलिथिक 32-गीगाबिट LPDDR5X लेआउट प्रत्येक आठ-चैनल सर्वर CPU को 2TB तक कम-शक्ति मेमोरी का समर्थन करने की अनुमति देता है। यह स्केलिंग पिछले 192GB पुनरावृत्ति की तुलना में 33% क्षमता वृद्धि प्रदान करती है, जो इसे AI डेटा सेंटरों में घनत्व और ऊर्जा दक्षता दोनों की तलाश करने वाले ऑपरेटरों के लिए आकर्षक बनाती है।
जबकि Micron, Samsung और SK hynix के साथ SOCAMM2 और उच्च-बैंडविड्थ मेमोरी विकास में अग्रणी है, व्यापक रूप से अपनाना ग्राहक योग्यता, सिस्टम सुधार और JEDEC मानकीकरण की गति जैसे कारकों पर निर्भर करेगा। विश्लेषक चेतावनी देते हैं कि आपूर्ति बाधाएं 2027 तक बनी रह सकती हैं, जो संभावित रूप से Micron की शीर्ष लाइन पर तत्काल मात्रा प्रभाव को सीमित कर सकती हैं।
कंपनी की वित्तीय दूसरी तिमाही की कमाई, जिसकी 18 मार्च को उम्मीद है, निवेशकों को नए डेटा सेंटर उत्पादों के लिए मूल्य निर्धारण रुझानों और शिपमेंट मात्राओं पर संकेत प्रदान करेगी। इस बीच, Micron, Nvidia के साथ सहयोग जारी रखता है और मानक समूहों में भाग लेता है, SOCAMM2 को विशिष्ट उच्च-प्रदर्शन AI अनुप्रयोगों से परे भविष्य के संभावित विस्तार के लिए स्थापित करता है।
अभी के लिए, Micron का स्टॉक काफी हद तक स्थिर बना हुआ है, जो अगली पीढ़ी की मेमोरी तकनीक की संभावना और इसके व्यावसायिक रोलआउट के आसपास की अनिश्चितता के बीच संतुलन को दर्शाता है।
यह पोस्ट Micron (MU) Stock; Slight Decline Despite 2TB CPU-Attached Memory Innovatio पहली बार CoinCentral पर प्रकाशित हुई।


