Alphabet (GOOGL) stellt mit Broadcom entwickelte Dual-Purpose-TPU-Chips der 8. Generation vor

Inhaltsverzeichnis Die Google-Abteilung von Alphabet stellte am Mittwoch zwei spezialisierte Prozessoren für künstliche Intelligenz vor und markierte damit das erste Mal, dass die Architektur ihrer Tensor-Verarbeitungseinheit in verschiedene Chips für Trainings- und Inferenzoperationen aufgeteilt wurde. Google Cloud hat die neueste Generation seiner Tensor-Verarbeitungseinheit (TPU) vorgestellt, eines selbst entwickelten Chips, der KI-Computing-Dienste schneller und effizienter machen soll https://t.co/MkGU7h2SkT – Bloomberg (@business) 22. April 2026 Der TPU 8t wurde speziell für das Training von KI-Modellen entwickelt, während sein Gegenstück, der TPU 8i, sich ausschließlich auf Inferenz konzentriert – den Prozess der Bereitstellung trainierter Modelle in realen Anwendungen. Broadcom fungierte als Co-Entwicklungspartner und verlängerte damit eine mehr als zehnjährige Zusammenarbeit. Alphabet Inc., GOOGL Dies stellt einen strategischen Dreh- und Angelpunkt gegenüber früheren Ansätzen dar. Frühere TPU-Iterationen kombinierten sowohl Trainings- als auch Inferenzfunktionen in einem einzigen Prozessor. Google führt diese Veränderung auf das Aufkommen von Agenten-KI-Systemen zurück – autonome Modelle, die in kontinuierlichen Feedbackschleifen mit minimaler menschlicher Aufsicht arbeiten –, die mehr speziell angefertigte Siliziumkomponenten erfordern. „Mit dem Aufkommen von KI-Agenten haben wir beschlossen, dass die Community von Chips profitieren würde, die individuell auf die Bedürfnisse von Schulung und Service zugeschnitten sind“, erklärte Amin Vahdat, Senior Vice President und Cheftechnologe für KI und Infrastruktur bei Google. Das inferenzorientierte TPU 8i verfügt über 384 Megabyte SRAM pro Prozessor – dreimal so viel Kapazität wie Ironwood. Laut Google beseitigt diese architektonische Verbesserung den „Warteraum“-Engpass und reduziert Latenzspitzen, die auftreten, wenn mehrere Benutzer gleichzeitig ein Modell abfragen. Im Vergleich zu Ironwood erreicht das TPU 8i eine um 80 % bessere Kosteneffizienz. Aus betrieblicher Sicht können Unternehmen nahezu das Doppelte der Benutzernachfrage bewältigen, ohne ihr Budget zu erhöhen. Der Chip weist außerdem eine bis zu zweifach verbesserte Energieeffizienz pro Watt auf, die durch die dynamische Energieverwaltungstechnologie ermöglicht wird, die den Energieverbrauch basierend auf den Arbeitslastanforderungen in Echtzeit moduliert. Zum ersten Mal nutzen beide Prozessoren die Axion-CPU von Google als Host-Prozessor, was eine Optimierung auf der Ebene der Systemarchitektur ermöglicht, anstatt sich auf Verbesserungen der Leistung einzelner Chips zu beschränken. Was die Trainingsfähigkeiten betrifft, unterstützt die TPU 8t-Superpod-Konfiguration Cluster von bis zu 9.600 Prozessoren mit 2 Petabyte Speicher mit hoher Bandbreite. Dies entspricht der doppelten Interchip-Kommunikationsbandbreite von Ironwood, und Google gibt an, dass es die Entwicklungszeiten für Grenzmodelle von Monaten auf nur noch wenige Wochen verkürzen kann. Der Trainingsprozessor liefert die 2,8-fache Rechenleistung der Ironwood-Architektur der siebten Generation zu einem gleichwertigen Preis. Die frühzeitige Einführung gewinnt an Dynamik. Citadel Securities hat mithilfe der TPU-Infrastruktur von Google quantitative Forschungsplattformen entwickelt. Alle siebzehn nationalen Laboratorien des US-Energieministeriums betreiben KI-Anwendungen auf den Prozessoren. Anthropic hat sich verpflichtet, mehrere Gigawatt der TPU-Rechenkapazität von Google zu nutzen. Analysten von DA Davidson prognostizierten im September, dass die TPU-Abteilung von Google in Kombination mit Google DeepMind einen Wert von annähernd 900 Milliarden US-Dollar erreichen könnte. Google unterhält ein exklusives Vertriebsmodell für TPUs – sie können nicht direkt erworben werden und sind nur über Google Cloud-Dienste zugänglich. Nvidia liefert weiterhin GPU-Hardware an Google und das Unternehmen bestätigte, dass es zu den ersten Cloud-Dienstanbietern gehören wird, die Nvidias kommende Vera Rubin-Plattform anbieten werden, wenn diese später in diesem Jahr auf den Markt kommt. Die Prozessoren wurden in enger Zusammenarbeit mit Google DeepMind entwickelt, das sie zum Trainieren von Gemini-Sprachmodellen und zur Optimierung von Algorithmen für Such- und YouTube-Plattformen eingesetzt hat. Google gab bekannt, dass sowohl das TPU 8t als auch das TPU 8i später im Jahr 2025 für Cloud-Plattform-Kunden allgemein verfügbar sein werden.