Der Beitrag "Googles TPU-betriebenes Gemini zwingt OpenAI in den Alarmzustand, während Nvidia abrutscht" erschien auf BitcoinEthereumNews.com. Google hat gerade einen harten Reset im KI-Hardware-Krieg ausgelöst, nachdem seine TPU-Chips Gemini 3 in unabhängigen Tests über GPT-5 hinausgebracht haben und dabei gleichzeitig sowohl OpenAI als auch Nvidia einen Schlag versetzt haben. Gemini 3 lief hauptsächlich auf Googles Tensor Processing Units, nicht auf Nvidia GPUs. Nach den Ergebnissen wies Sam Altman seine Mitarbeiter an, den Fokus wieder auf die Verbesserung von ChatGPT und seinen Kernmodellen zu legen. Dieser Schritt folgte auf einen von OpenAI als "Code Red" bezeichneten Moment in der letzten Woche. Gleichzeitig sagten Analysten, dass Google plant, die TPU-Produktion bis 2028 mehr als zu verdoppeln, da die Nachfrage nach hauseigenen KI-Chips weiter steigt. Google skaliert Chips und drängt in den externen Verkauf Google plant nun, über die ausschließliche Nutzung von TPUs in der eigenen Cloud hinauszugehen. Ein kürzlich abgeschlossener Deal allein brachte 1 Million TPUs zu Anthropic, ein Schritt, der auf mehrere zehn Milliarden Dollar geschätzt wird. Dieser einzelne Vertrag erschütterte Nvidia-Investoren. Die Sorge ist einfach: Wenn Google mehr TPUs an externe Unternehmen verkauft, steht Nvidia vor direkten Verlusten bei der Nachfrage aus Rechenzentren. Chip-Analysten bei SemiAnalysis bewerten TPUs jetzt als "gleichauf mit Nvidia" sowohl für das Training als auch für den Betrieb fortschrittlicher KI-Systeme. Morgan Stanley sagt, dass jede 500.000 an externe Käufer verkaufte TPUs bis zu 13 Milliarden Dollar Umsatz für Google generieren könnten. Die Bank erwartet auch, dass TSMC im nächsten Jahr 3,2 Millionen TPUs produzieren wird, mit einem Anstieg auf 5 Millionen im Jahr 2027 und 7 Millionen im Jahr 2028. Analysten sagten, dass das Wachstum im Jahr 2027 nun stärker aussieht als frühere Prognosen. Google baut seine Prozessoren hauptsächlich mit Broadcom, mit zusätzlicher Unterstützung von MediaTek. Das Unternehmen sagt, sein Vorteil komme von der vollständigen vertikalen Kontrolle über Hardware, Software und KI-Modelle innerhalb eines Systems. Koray Kavukcuoglu, Googles KI-Architekt und DeepMind CTO, sagte: "Das Wichtigste ist dieser Full-Stack-Ansatz. Ich denke, wir haben eine einzigartige..."Der Beitrag "Googles TPU-betriebenes Gemini zwingt OpenAI in den Alarmzustand, während Nvidia abrutscht" erschien auf BitcoinEthereumNews.com. Google hat gerade einen harten Reset im KI-Hardware-Krieg ausgelöst, nachdem seine TPU-Chips Gemini 3 in unabhängigen Tests über GPT-5 hinausgebracht haben und dabei gleichzeitig sowohl OpenAI als auch Nvidia einen Schlag versetzt haben. Gemini 3 lief hauptsächlich auf Googles Tensor Processing Units, nicht auf Nvidia GPUs. Nach den Ergebnissen wies Sam Altman seine Mitarbeiter an, den Fokus wieder auf die Verbesserung von ChatGPT und seinen Kernmodellen zu legen. Dieser Schritt folgte auf einen von OpenAI als "Code Red" bezeichneten Moment in der letzten Woche. Gleichzeitig sagten Analysten, dass Google plant, die TPU-Produktion bis 2028 mehr als zu verdoppeln, da die Nachfrage nach hauseigenen KI-Chips weiter steigt. Google skaliert Chips und drängt in den externen Verkauf Google plant nun, über die ausschließliche Nutzung von TPUs in der eigenen Cloud hinauszugehen. Ein kürzlich abgeschlossener Deal allein brachte 1 Million TPUs zu Anthropic, ein Schritt, der auf mehrere zehn Milliarden Dollar geschätzt wird. Dieser einzelne Vertrag erschütterte Nvidia-Investoren. Die Sorge ist einfach: Wenn Google mehr TPUs an externe Unternehmen verkauft, steht Nvidia vor direkten Verlusten bei der Nachfrage aus Rechenzentren. Chip-Analysten bei SemiAnalysis bewerten TPUs jetzt als "gleichauf mit Nvidia" sowohl für das Training als auch für den Betrieb fortschrittlicher KI-Systeme. Morgan Stanley sagt, dass jede 500.000 an externe Käufer verkaufte TPUs bis zu 13 Milliarden Dollar Umsatz für Google generieren könnten. Die Bank erwartet auch, dass TSMC im nächsten Jahr 3,2 Millionen TPUs produzieren wird, mit einem Anstieg auf 5 Millionen im Jahr 2027 und 7 Millionen im Jahr 2028. Analysten sagten, dass das Wachstum im Jahr 2027 nun stärker aussieht als frühere Prognosen. Google baut seine Prozessoren hauptsächlich mit Broadcom, mit zusätzlicher Unterstützung von MediaTek. Das Unternehmen sagt, sein Vorteil komme von der vollständigen vertikalen Kontrolle über Hardware, Software und KI-Modelle innerhalb eines Systems. Koray Kavukcuoglu, Googles KI-Architekt und DeepMind CTO, sagte: "Das Wichtigste ist dieser Full-Stack-Ansatz. Ich denke, wir haben eine einzigartige..."

Googles TPU-betriebenes Gemini zwingt OpenAI in den Code Red, während Nvidia abrutscht

2025/12/09 04:59

Google hat gerade einen harten Reset im KI-Hardware-Krieg ausgelöst, nachdem seine TPU-Chips Gemini 3 in unabhängigen Tests an GPT-5 vorbeigeschoben haben und dabei OpenAI und Nvidia gleichzeitig ins Gesicht geschlagen haben.

Gemini 3 lief hauptsächlich auf Googles Tensor Processing Units, nicht auf Nvidia GPUs. Nach den Ergebnissen wies Sam Altman seine Mitarbeiter an, den Fokus wieder auf die Reparatur von ChatGPT und seiner Kernmodelle zu richten.

Der Schritt folgte auf das, was OpenAI letzte Woche als "Code Red"-Moment bezeichnete. Gleichzeitig sagten Analysten, dass Google plant, die TPU-Produktion bis 2028 mehr als zu verdoppeln, da die Nachfrage nach hauseigenen KI-Chips weiter steigt.

Google skaliert Chips und drängt in den externen Verkauf

Google plant nun, über die ausschließliche Nutzung von TPUs in der eigenen Cloud hinauszugehen. Ein kürzlich abgeschlossener Deal lieferte allein 1 Million TPUs an Anthropic, ein Schritt im Wert von mehreren zehn Milliarden Dollar. Dieser einzelne Vertrag erschütterte Nvidia-Investoren.

Die Sorge ist einfach. Wenn Google mehr TPUs an externe Unternehmen verkauft, steht Nvidia vor einem direkten Verlust der Rechenzentrum-Nachfrage.

Chip-Analysten bei SemiAnalysis stufen TPUs jetzt als "gleichauf mit Nvidia" sowohl für das Training als auch für den Betrieb fortschrittlicher KI-Systeme ein. Morgan Stanley sagt, dass jede 500.000 an externe Käufer verkaufte TPUs bis zu 13 Milliarden Dollar Umsatz für Google generieren könnte.

Die Bank erwartet auch, dass TSMC im nächsten Jahr 3,2 Millionen TPUs produzieren wird, mit einem Anstieg auf 5 Millionen im Jahr 2027 und 7 Millionen im Jahr 2028. Analysten sagten, dass das Wachstum im Jahr 2027 jetzt stärker aussieht als frühere Prognosen.

Google baut seine Prozessoren hauptsächlich mit Broadcom, mit zusätzlicher Unterstützung von MediaTek. Das Unternehmen sagt, sein Vorteil komme von der vollständigen vertikalen Kontrolle über Hardware, Software und KI-Modelle innerhalb eines Systems. Koray Kavukcuoglu, Googles KI-Architekt und DeepMind CTO, sagte: "Das Wichtigste ist dieser Full-Stack-Ansatz. Ich denke, wir haben dort einen einzigartigen Ansatz."

Er sagte auch, dass Googles Daten von Milliarden von Benutzern tiefe Einblicke geben, wie Gemini über Produkte wie Suche und KI-Übersichten funktioniert.

Nvidia-Aktien fielen letzten Monat, nachdem The Information berichtete, dass Meta Gespräche mit Google über den Kauf von TPUs geführt hatte. Meta lehnte eine Stellungnahme ab. Analysten sagen jetzt, dass Google ähnliche Lieferverträge mit OpenAI, Elon Musks xAI oder Safe Superintelligence abschließen könnte, mit potenziellen zusätzlichen Einnahmen von über 100 Milliarden Dollar über mehrere Jahre.

Nvidia verteidigt sich, während die TPU-Geschichte tiefer schneidet

Nvidia wehrte sich nach dem Ausverkauf. Das Unternehmen sagte, es bleibe "der Branche eine Generation voraus" und "die einzige Plattform, die jedes KI-Modell ausführt." Es sagte auch: "Wir liefern weiterhin an Google." Nvidia fügte hinzu, dass seine Systeme "größere Leistung, Vielseitigkeit und Fungibilität" als TPUs bieten, die nach Angaben des Unternehmens auf spezifische Frameworks abzielen.

Gleichzeitig erhalten Entwickler jetzt Tools, die den Wechsel von Nvidias Cuda-Software erleichtern. KI-Coding-Tools helfen jetzt, Workloads für TPU-Systeme schneller als zuvor umzuschreiben. Das beseitigt eine der stärksten Lock-in-Verteidigungen von Nvidia.

Die TPU-Geschichte begann lange vor dem heutigen KI-Boom. Im Jahr 2013 hielt Jeff Dean, Googles Chefwissenschaftler, einen internen Vortrag nach einem Durchbruch bei tiefen neuronalen Netzen für Sprachsysteme. Jonathan Ross, damals ein Google-Hardware-Ingenieur, erinnerte sich an den Moment. "Die erste Folie war eine gute Nachricht, maschinelles Lernen funktioniert endlich. Folie zwei sagte schlechte Nachricht, wir können es uns nicht leisten." Dean berechnete, dass wenn Hunderte Millionen Nutzer täglich drei Minuten mit Google sprechen würden, die Rechenzentrumskapazität zu Kosten von mehreren zehn Milliarden Dollar verdoppelt werden müsste.

Ross begann 2013 mit dem Bau des ersten TPU als Nebenprojekt, während er in der Nähe des Sprachteams saß. "Wir haben diesen ersten Chip mit etwa 15 Leuten gebaut", sagte er im Dezember 2023. Ross leitet jetzt die KI-Chip-Firma Groq.

Im Jahr 2016 besiegte AlphaGo den Go-Weltmeister Lee Sedol, und dieses historische Match wurde zu einem wichtigen KI-Meilenstein. Seitdem haben TPUs jahrelang Googles Suche, Anzeigen und YouTube-Systeme angetrieben.

Google pflegte seine TPUs alle zwei Jahre zu aktualisieren, aber dieser Zyklus wurde vor 2 Jahren im Jahr 2023 auf jährlich geändert.

Ein Google-Sprecher sagte, die Nachfrage steigt an beiden Fronten. "Google Cloud sieht eine wachsende Nachfrage sowohl nach unseren maßgeschneiderten TPUs als auch nach Nvidia GPUs. Wir werden weiterhin beide unterstützen", sagte das Unternehmen.

Erhalten Sie 50 $ kostenlos für den Krypto-Handel, wenn Sie sich jetzt bei Bybit anmelden

Quelle: https://www.cryptopolitan.com/googles-tpu-smashes-openai-and-nvidia/

Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an [email protected] um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.