Cryptonews

Alphabet (GOOGL) dévoile des puces TPU à double usage de 8e génération développées avec Broadcom

Source
cryptonewstrend.com
Publié
Alphabet (GOOGL) dévoile des puces TPU à double usage de 8e génération développées avec Broadcom

La division Google d'Alphabet a présenté mercredi deux processeurs d'intelligence artificielle spécialisés, marquant la première fois que son architecture d'unité de traitement tensoriel est séparée en puces distinctes pour les opérations de formation et d'inférence. Google Cloud a dévoilé la dernière génération de son unité de traitement tensoriel, ou TPU, une puce maison conçue pour rendre les services informatiques d'IA plus rapides et plus efficaces https://t.co/MkGU7h2SkT — Bloomberg (@business) 22 avril 2026 Le TPU 8t est conçu spécifiquement pour la formation de modèles d'IA, tandis que son homologue, le TPU 8i, se concentre exclusivement sur l'inférence, le processus de déploiement de modèles formés dans des applications du monde réel. Broadcom a servi de partenaire de co-développement, prolongeant ainsi une collaboration qui s'étend sur plus de dix ans. Alphabet Inc., GOOGL Cela représente un pivot stratégique par rapport aux approches précédentes. Les itérations TPU antérieures combinaient à la fois des capacités de formation et d’inférence au sein d’un seul processeur. Google attribue ce changement à l’émergence de systèmes d’IA agentiques – des modèles autonomes qui fonctionnent dans des boucles de rétroaction continues avec une surveillance humaine minimale – qui nécessitent davantage de silicium spécialement conçu. "Avec l'essor des agents IA, nous avons déterminé que la communauté bénéficierait de puces individuellement spécialisées pour les besoins de formation et de service", a expliqué Amin Vahdat, vice-président senior et technologue en chef de Google pour l'IA et l'infrastructure. Le TPU 8i orienté inférence contient 384 Mo de SRAM par processeur, soit trois fois la capacité d'Ironwood. Selon Google, cette amélioration architecturale élimine le goulot d'étranglement de la « salle d'attente », réduisant ainsi les pics de latence qui se produisent lorsque plusieurs utilisateurs interrogent simultanément un modèle. Par rapport à Ironwood, le TPU 8i atteint une rentabilité 80 % supérieure. En termes opérationnels, les organisations peuvent répondre à près du double de la demande des utilisateurs sans augmenter leur budget. La puce démontre également une efficacité énergétique par watt jusqu'à 2 fois améliorée, grâce à une technologie de gestion dynamique de l'énergie qui module la consommation d'énergie en fonction des exigences de charge de travail en temps réel. Pour la première fois, les deux processeurs utilisent le processeur Axion de Google comme processeur hôte, permettant une optimisation au niveau de l'architecture du système plutôt que de limiter les améliorations des performances des puces individuelles. Concernant les capacités de formation, la configuration du superpod TPU 8t prend en charge des clusters comprenant jusqu'à 9 600 processeurs avec 2 pétaoctets de mémoire à large bande passante. Cela représente le double de la bande passante de communication inter-puces d'Ironwood, et Google affirme pouvoir réduire les délais de développement des modèles de pointe de plusieurs mois à quelques semaines seulement. Le processeur de formation offre des performances de calcul 2,8 fois supérieures à celles de l'architecture Ironwood de septième génération à un prix équivalent. L’adoption précoce prend de l’ampleur. Citadel Securities a développé des plateformes de recherche quantitative en utilisant l'infrastructure TPU de Google. Les dix-sept laboratoires nationaux du Département de l’énergie des États-Unis exploitent des applications co-scientifiques en IA sur les processeurs. Anthropic s'est engagé à utiliser plusieurs gigawatts de capacité de calcul Google TPU. Les analystes de DA Davidson prévoyaient en septembre que la division TPU de Google, combinée à Google DeepMind, pourrait atteindre une valorisation proche de 900 milliards de dollars. Google maintient un modèle de distribution exclusif pour les TPU : ils ne sont pas disponibles à l'achat direct et ne sont accessibles que via les services Google Cloud. Nvidia continue de fournir du matériel GPU à Google, et la société a confirmé qu'elle serait l'un des premiers fournisseurs de services cloud à proposer la prochaine plate-forme Vera Rubin de Nvidia lors de son lancement plus tard cette année. Les processeurs ont été conçus en étroite collaboration avec Google DeepMind, qui les a déployés pour entraîner les modèles de langage Gemini et optimiser les algorithmes qui alimentent les plateformes de recherche et YouTube. Google a annoncé que les TPU 8t et TPU 8i seront disponibles pour les clients de la plateforme cloud plus tard en 2025.