Alphabets Google-Division stellte am Mittwoch zwei spezialisierte Prozessoren für künstliche Intelligenz vor und markierte damit das erste Mal, dass seine Tensor Processing Unit-Architektur in separate Chips für Training und Inferenz aufgeteilt wurde.
Der TPU 8t ist speziell für das Training von KI-Modellen konzipiert, während sein Gegenstück, der TPU 8i, sich ausschließlich auf Inferenz konzentriert – den Prozess der Bereitstellung trainierter Modelle in realen Anwendungen. Broadcom fungierte als Co-Entwicklungspartner und setzte damit eine mehr als zehnjährige Zusammenarbeit fort.
Alphabet Inc., GOOGL
Dies stellt eine strategische Kehrtwende gegenüber früheren Ansätzen dar. Frühere TPU-Iterationen kombinierten sowohl Trainings- als auch Inferenzfähigkeiten in einem einzigen Prozessor. Google führt diese Änderung auf das Aufkommen agentischer KI-Systeme zurück – autonome Modelle, die in kontinuierlichen Feedbackschleifen mit minimaler menschlicher Aufsicht arbeiten – die einen zweckgebauteren Chip erfordern.
Der auf Inferenz ausgerichtete TPU 8i bietet 384 Megabyte SRAM pro Prozessor – dreimal so viel wie Ironwood. Laut Google beseitigt diese architektonische Verbesserung den „Warteraum"-Engpass und reduziert Latenzspitzen, die auftreten, wenn mehrere Nutzer gleichzeitig ein Modell abfragen.
Im Vergleich zu Ironwood erzielt der TPU 8i eine um 80 % bessere Kosteneffizienz. In der Praxis können Unternehmen fast die doppelte Nutzernachfrage bewältigen, ohne ihr Budget zu erhöhen.
Der Chip demonstriert außerdem eine bis zu 2-fach verbesserte Energieeffizienz pro Watt, ermöglicht durch dynamisches Energiemanagement, das den Energieverbrauch basierend auf Echtzeit-Workload-Anforderungen moduliert.
Erstmals nutzen beide Prozessoren Googles Axion CPU als Host-Prozessor und ermöglichen damit eine Optimierung auf Systemarchitekturebene, anstatt Verbesserungen auf die individuelle Chip-Leistung zu beschränken.
Hinsichtlich der Trainingsfähigkeiten unterstützt die TPU 8t-Superpod-Konfiguration Cluster mit bis zu 9.600 Prozessoren und 2 Petabyte Hochbandbreitenspeicher. Dies entspricht der doppelten Interchip-Kommunikationsbandbreite von Ironwood, und Google behauptet, dass es die Entwicklungszeiträume für Frontier-Modelle von Monaten auf nur wenige Wochen verkürzen kann.
Der Trainingsprozessor liefert das 2,8-fache der Rechenleistung der Ironwood-Architektur der siebten Generation zum gleichen Preis.
Die frühe Akzeptanz gewinnt an Dynamik. Citadel Securities entwickelte quantitative Forschungsplattformen mithilfe von Googles TPU-Infrastruktur. Alle siebzehn nationalen Laboratorien des US-Energieministeriums betreiben KI-Co-Scientist-Anwendungen auf den Prozessoren. Anthropic hat sich verpflichtet, mehrere Gigawatt an Google TPU-Rechenkapazität zu nutzen.
Analysten von DA Davidson prognostizierten im September, dass Googles TPU-Division in Kombination mit Google DeepMind eine Bewertung von annähernd 900 Milliarden Dollar erzielen könnte.
Google pflegt ein exklusives Vertriebsmodell für TPUs – sie sind nicht zum direkten Kauf erhältlich und können nur über Google Cloud-Dienste genutzt werden. Nvidia liefert weiterhin GPU-Hardware an Google, und das Unternehmen bestätigte, dass es zu den ersten Cloud-Dienstleistern gehören wird, die Nvidias kommendes Vera Rubin-Plattform anbieten, wenn es später in diesem Jahr auf den Markt kommt.
Die Prozessoren wurden in enger Zusammenarbeit mit Google DeepMind entwickelt, das sie eingesetzt hat, um Gemini-Sprachmodelle zu trainieren und Algorithmen zu optimieren, die Search- und YouTube-Plattformen antreiben.
Google kündigte an, dass sowohl der TPU 8t als auch der TPU 8i später im Jahr 2025 für Cloud-Plattform-Kunden allgemein verfügbar sein werden.
Der Beitrag Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom erschien zuerst auf Blockonomi.

