Cryptonews

Alphabet (GOOGL) presenta chips TPU de octava generación de doble propósito desarrollados con Broadcom

Fuente
cryptonewstrend.com
Publicado
Alphabet (GOOGL) presenta chips TPU de octava generación de doble propósito desarrollados con Broadcom

La división Google de Alphabet presentó el miércoles dos procesadores de inteligencia artificial especializados, lo que marca la primera vez que su arquitectura de unidad de procesamiento tensorial se separa en chips distintos para operaciones de entrenamiento e inferencia. Google Cloud presentó la última generación de su unidad de procesamiento tensorial, o TPU, un chip propio diseñado para hacer que los servicios informáticos de IA sean más rápidos y eficientes https://t.co/MkGU7h2SkT — Bloomberg (@business) 22 de abril de 2026 El TPU 8t está diseñado específicamente para el entrenamiento de modelos de IA, mientras que su contraparte, el TPU 8i, se centra exclusivamente en la inferencia, el proceso de implementación de modelos entrenados en aplicaciones del mundo real. Broadcom actuó como socio de codesarrollo, ampliando una colaboración que se ha extendido por más de diez años. Alphabet Inc., GOOGL Esto representa un giro estratégico con respecto a enfoques anteriores. Las iteraciones anteriores de TPU combinaban capacidades de entrenamiento e inferencia en un solo procesador. Google atribuye este cambio a la aparición de sistemas de inteligencia artificial agentes (modelos autónomos que operan en ciclos de retroalimentación continua con una supervisión humana mínima) que requieren más silicio diseñado específicamente. "Con el aumento de los agentes de IA, determinamos que la comunidad se beneficiaría de chips especializados individualmente para las necesidades de capacitación y servicio", explicó Amin Vahdat, vicepresidente senior y tecnólogo jefe de IA e infraestructura de Google. El TPU 8i orientado a la inferencia incluye 384 megabytes de SRAM por procesador, tres veces la capacidad de Ironwood. Según Google, esta mejora arquitectónica elimina el cuello de botella de la "sala de espera", reduciendo los picos de latencia que ocurren cuando varios usuarios consultan simultáneamente un modelo. En comparación con Ironwood, el TPU 8i logra una rentabilidad un 80% mayor. En términos operativos, las organizaciones pueden satisfacer casi el doble de la demanda de los usuarios sin aumentar su presupuesto. El chip también demuestra una eficiencia energética por vatio mejorada hasta dos veces, gracias a la tecnología de administración dinámica de energía que modula el consumo de energía en función de los requisitos de la carga de trabajo en tiempo real. Por primera vez, ambos procesadores utilizan la CPU Axion de Google como procesador host, lo que permite la optimización a nivel de arquitectura del sistema en lugar de limitar las mejoras al rendimiento del chip individual. En cuanto a las capacidades de entrenamiento, la configuración del superpod TPU 8t admite clústeres de hasta 9.600 procesadores con 2 petabytes de memoria de alto ancho de banda. Esto representa el doble del ancho de banda de comunicación entre chips de Ironwood, y Google afirma que puede comprimir los plazos de desarrollo del modelo de frontera de meses a apenas semanas. El procesador de entrenamiento ofrece 2,8 veces el rendimiento computacional de la arquitectura Ironwood de séptima generación a un precio equivalente. La adopción temprana está ganando impulso. Citadel Securities desarrolló plataformas de investigación cuantitativa utilizando la infraestructura TPU de Google. Los diecisiete laboratorios nacionales del Departamento de Energía de los Estados Unidos operan aplicaciones cocientíficas de IA en los procesadores. Anthropic se ha comprometido a utilizar múltiples gigavatios de capacidad informática de Google TPU. Los analistas de DA Davidson proyectaron en septiembre que la división TPU de Google, combinada con Google DeepMind, podría alcanzar una valoración cercana a los 900 mil millones de dólares. Google mantiene un modelo de distribución exclusivo para TPU: no están disponibles para compra directa y solo se puede acceder a ellos a través de los servicios de Google Cloud. Nvidia continúa suministrando hardware GPU a Google y la compañía confirmó que estará entre los primeros proveedores de servicios en la nube que ofrecerán la próxima plataforma Vera Rubin de Nvidia cuando se lance a finales de este año. Los procesadores fueron diseñados en estrecha colaboración con Google DeepMind, que los implementó para entrenar modelos de lenguaje Gemini y optimizar algoritmos que impulsan las plataformas de búsqueda y YouTube. Google anunció que tanto el TPU 8t como el TPU 8i alcanzarán la disponibilidad general para los clientes de la plataforma en la nube más adelante en 2025.