Alphabet (GOOGL) представляет двухцелевые чипы TPU 8-го поколения, разработанные совместно с Broadcom

Подразделение Google компании Alphabet в среду представило два специализированных процессора искусственного интеллекта, что стало первым случаем, когда архитектура его тензорных процессоров была разделена на отдельные микросхемы для операций обучения и вывода. Google Cloud представила последнее поколение своего тензорного процессора, или TPU, собственного чипа, предназначенного для ускорения и повышения эффективности вычислительных сервисов искусственного интеллекта https://t.co/MkGU7h2SkT — Bloomberg (@business) 22 апреля 2026 г. TPU 8t разработан специально для обучения моделей ИИ, в то время как его аналог, TPU 8i, ориентирован исключительно на логический вывод — процесс развертывания обученных моделей в реальных приложениях. Broadcom выступил партнером по совместному развитию, продлив сотрудничество, продолжавшееся более десяти лет. Alphabet Inc., GOOGL Это представляет собой стратегический поворот по сравнению с предыдущими подходами. Более ранние версии TPU сочетали возможности обучения и вывода в одном процессоре. Google связывает это изменение с появлением агентных систем искусственного интеллекта — автономных моделей, которые работают в непрерывных циклах обратной связи с минимальным человеческим контролем, — для которых требуется больше специализированных микросхем. «С появлением агентов искусственного интеллекта мы решили, что сообщество выиграет от чипов, индивидуально специализированных для нужд обучения и обслуживания», — объяснил Амин Вахдат, старший вице-президент и главный технолог Google по искусственному интеллекту и инфраструктуре. Ориентированный на логический вывод TPU 8i имеет 384 мегабайта SRAM на процессор — в три раза больше, чем у Ironwood. По данным Google, это архитектурное усовершенствование устраняет узкое место в «зале ожидания», уменьшая пики задержки, которые возникают, когда несколько пользователей одновременно запрашивают модель. По сравнению с Ironwood, TPU 8i обеспечивает на 80% лучшую экономическую эффективность. С операционной точки зрения организации могут удовлетворить почти вдвое больший спрос пользователей, не увеличивая при этом свой бюджет. Чип также демонстрирует двукратное повышение энергоэффективности на ватт благодаря технологии динамического управления питанием, которая модулирует энергопотребление в зависимости от требований рабочей нагрузки в реальном времени. Впервые оба процессора используют процессор Google Axion в качестве главного процессора, что обеспечивает оптимизацию на уровне системной архитектуры, а не ограничивает улучшение производительности отдельных чипов. Что касается возможностей обучения, конфигурация суперпода TPU 8t поддерживает кластеры, содержащие до 9600 процессоров с 2 петабайтами памяти с высокой пропускной способностью. Это вдвое превышает пропускную способность межчиповой связи по сравнению с Ironwood, и Google утверждает, что может сократить сроки разработки передовых моделей с месяцев до недель. Обучающий процессор обеспечивает в 2,8 раза большую вычислительную производительность по сравнению с архитектурой Ironwood седьмого поколения при той же цене. Раннее внедрение набирает обороты. Citadel Securities разработала платформы количественных исследований, используя инфраструктуру Google TPU. Все семнадцать национальных лабораторий Министерства энергетики США используют на процессорах приложения искусственного интеллекта. Anthropic взяла на себя обязательства использовать несколько гигаватт вычислительной мощности Google TPU. В сентябре аналитики DA Davidson прогнозировали, что подразделение Google TPU в сочетании с Google DeepMind может получить оценку, приближающуюся к 900 миллиардам долларов. Google поддерживает эксклюзивную модель распространения TPU — они недоступны для прямой покупки, и доступ к ним возможен только через сервисы Google Cloud. Nvidia продолжает поставлять Google оборудование для графических процессоров, и компания подтвердила, что будет среди первых поставщиков облачных услуг, предлагающих будущую платформу Nvidia Vera Rubin, когда она будет запущена позднее в этом году. Процессоры были разработаны в тесном сотрудничестве с Google DeepMind, которая использовала их для обучения языковых моделей Gemini и оптимизации алгоритмов, используемых на платформах поиска и YouTube. Google объявил, что TPU 8t и TPU 8i станут общедоступными для клиентов облачной платформы позднее в 2025 году.