Wpis NVIDIA's $20B chip could make ChatGPT look slow ukazał się na BitcoinEthereumNews.com. Gigant chipów NVIDIA przygotowuje się do zaprezentowania potężnej nowej sztucznejWpis NVIDIA's $20B chip could make ChatGPT look slow ukazał się na BitcoinEthereumNews.com. Gigant chipów NVIDIA przygotowuje się do zaprezentowania potężnej nowej sztucznej

Chip NVIDIA za 20 mld USD może sprawić, że ChatGPT będzie wyglądał wolno

2026/03/14 15:29
4 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem [email protected]

Gigant chipów NVIDIA przygotowuje się do zaprezentowania potężnego nowego procesora sztucznej inteligencji zaprojektowanego w celu przyspieszenia sposobu, w jaki chatboty i inne narzędzia AI generują odpowiedzi, potencjalnie sprawiając, że dzisiejsze systemy takie jak ChatGPT będą wyglądać na powolne w porównaniu.

Nowa platforma, której debiut oczekiwany jest na corocznej konferencji deweloperskiej GTC firmy NVIDIA, jest zoptymalizowana pod kątem wnioskowania AI, etapu, w którym wytrenowane modele generują odpowiedzi na zapytania użytkowników. W przeciwieństwie do tradycyjnych procesorów GPU zbudowanych do obsługi zarówno treningu, jak i wnioskowania, nadchodzący procesor koncentruje się szczególnie na szybszym i bardziej wydajnym dostarczaniu odpowiedzi.

Produkt, jeśli zostanie wprowadzony na rynek, będzie pierwszym namacalnym rezultatem grudniowej transakcji, która sprowadziła założycieli Groq do firmy, której firma specjalizuje się w sprzęcie do szybkiego przetwarzania AI.

Pod koniec zeszłego roku NVIDIA podobno wydała około 20 miliardów dolarów na licencjonowanie technologii od startupu chipowego Groq i rekrutację kluczowego personelu, w tym jego CEO. Mniej więcej w tym samym czasie CEO NVIDIA Jensen Huang powiedział pracownikom: "Planujemy zintegrować procesory Groq o niskim opóźnieniu z architekturą fabryki AI NVIDIA, rozszerzając platformę, aby obsługiwać jeszcze szerszy zakres obciążeń wnioskowania AI i obciążeń w czasie rzeczywistym."

Teraz oczekuje się, że nowy chip wnioskujący będzie obsługiwał złożone zapytania AI z dużą prędkością, a OpenAI i inni wiodący klienci prawdopodobnie go przyjmą, według The Wall Street Journal. Jego raport pokazał również, że nowy chip może obsługiwać blisko 10% obciążenia wnioskowania OpenAI.

Chip w stylu Groq będzie używał SRAM, twierdzą źródła

Podczas niedawnego raportu o wynikach finansowych CEO NVIDIA zasugerował, że kilka nowych produktów zostanie zaprezentowanych na nadchodzącym wydarzeniu GTC, często określanym jako "Super Bowl AI". Zauważył: "Mam kilka świetnych pomysłów, którymi chciałbym się z wami podzielić na GTC." 

Większość analityków zgadza się, że chip w stylu Groq może być częścią oferty. Stwierdzili również, że jego projekt może rzucić światło na to, jak NVIDIA zamierza rozwiązać ograniczenia pamięci w obliczeniach wnioskujących. Takie platformy zazwyczaj działają na pamięci o wysokiej przepustowości (HBM). Jednak HBM była ostatnio trudna do zdobycia.

Insiderzy twierdzili, że firma planuje używać SRAM w chipie zamiast dynamicznej pamięci RAM związanej z HBM. W idealnym przypadku SRAM jest bardziej dostępna i może poprawić wydajność obciążeń rozumowania AI.

Jeśli chip zostanie zaprezentowany, może to być wielki krok naprzód dla firmy chipowej i modeli trenowanych AI. Jednak mówiąc o jego możliwym wprowadzeniu na rynek, Sid Sheth, założyciel i CEO d-Matrix, rzucił cień na jego rozwój. Zauważył, że chociaż NVIDIA pozostaje wyraźnym liderem w treningu AI, wnioskowanie reprezentuje zupełnie inny krajobraz. Podzielił się: "Deweloperzy mogą zwrócić się do konkurentów innych niż NVIDIA, ponieważ uruchamianie gotowych modeli AI nie wymaga tego samego rodzaju programowania, co ich trenowanie." 

Niemniej jednak inne giganty technologiczne również rozwijają obliczenia wnioskujące. Meta w tym tygodniu zaprezentowała cztery procesory dostosowane do wnioskowania, skłaniając inwestora z Doliny Krzemowej do stwierdzenia, że przemysł może wchodzić w fazę nie-"dominowaną przez NVIDIA".

Jednak niedawno June Paik, dyrektor generalny FuriosaAI, rywala NVIDIA, komentując korzyści z łatwo wdrażalnych obliczeń wnioskujących, ostrzegł, że większość centrów danych nie może pomieścić najnowszych procesorów GPU chłodzonych cieczą.

Niemniej jednak, pomimo jego obaw, analitycy Bank of America oczekują, że obciążenia wnioskowania będą stanowić 75% wydatków na centra danych AI do 2030 roku, kiedy rynek osiągnie około 1,2 biliona dolarów, w porównaniu z około 50% w zeszłym roku. Ben Bajarin, analityk technologiczny w Creative Strategies, również stwierdził, że centra danych przyszłości nie będą zgodne z modelem uniwersalnym, przewidując, że firmy przyjmą różne podejścia do rozwoju chipów i obiektów.

NVIDIA ma wydać chipy Vera Rubin później w 2026 roku

NVIDIA również niedawno wprowadziła swoje chipy AI nowej generacji, chipy Vera Rubin AI, przewidując, że wzrost platform AI rozumujących, takich jak DeepSeek, pobudzi jeszcze większy popyt na obliczenia. Twierdziła, że chipy pomogą trenować większe modele AI i dostarczać bardziej zaawansowane wyniki szerszej bazie użytkowników. 

Według Huanga, Rubin również trafi na rynek w drugiej połowie 2026 roku, a wersja wysokiej klasy "ultra" pojawi się w 2027 roku.

Wyjaśnił również, że pojedynczy system Rubin połączy 576 pojedynczych procesorów GPU w jeden chip. Obecnie chip Blackwell firmy NVIDIA grupuje 72 procesory GPU w swoim systemie NVL72, co oznacza, że Rubin będzie charakteryzował się bardziej zaawansowaną pamięcią.

Źródło: https://www.cryptopolitan.com/nvidias-chip-could-make-chatgpt-look-slow/

Okazja rynkowa
Logo Gitcoin
Cena Gitcoin(GTC)
$0.09407
$0.09407$0.09407
-6.16%
USD
Gitcoin (GTC) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z [email protected] w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.